30.8.2017 16:00 | Military

Je vojna vedená robotmi - zabijakmi bližšie, ako si myslíme?

Zdroj: iStockphoto
Viac ako sto popredných svetových expertov na robotiku nedávno napísalo list OSN, v ktorom vyzývajú k zákazu vývoja takzvaných "robotov zabijakov" a varujú pred novými pretekmi v zbrojení. Ale sú ich obavy opodstatnené? Túto otázku si položil spravodajský server BBC.

Celé pluky tankov bez ľudskej posádky, bezpilotné lietadlá schopné nájsť jediného povstalca v dave civilistov, zbrane ovládané počítačovými "mozgami", čo sa učia rovnako ako človek. To všetko patrí medzi inteligentné technologické novinky, ktoré vyvíja a predstavuje zbrojný priemysel. Podľa tvrdenia mnohých expertov toto odvetvie teraz vstupuje do "tretej revolúcie vedenia vojny". "V každej sfére bojového poľa - vo vzduchu, na mori, pod hladinou aj na zemi - armády celého sveta predvádzajú prototypy autonómnych zbraní," hovorí profesor umelej inteligencie na Univerzite Nového Južného Walesu v Sydney Toby Walsh. "Nové technológie, ako je hlboké učenie (deep learning) túto revolúciu pomáhajú hnať vpred. Technologická oblasť jednoznačne vedie a armáda sa ju snaží dobehnúť," dodáva.

Jednou z ohlásených noviniek, ktorá sa protivníkom stará o bezsenné noci, je bojový modul "neurónovej siete" kalašnikovov. Tvorí ho guľomet ráže 7,62 milimetra a kamera pripojená k počítačovému systému, ktorý (ako tvrdia jeho tvorcovia) dokáže sám bez akejkoľvek ľudskej  kontroly "identifikovať ciele a rozhodnúť, či vystrelí". Na rozdiel od bežných počítačov, ktoré používajú predprogramované inštrukcie riešiace konkrétnu, ale obmedzenú škálu predvídateľných možností, je neurónová sieť navrhnutá tak, aby sa učila z predchádzajúcich príkladov, ktoré si dokáže prispôsobiť na okolnosti, s ktorými sa zatiaľ nemusela stretnúť. A práve táto údajná schopnosť robiť  svoje vlastné rozhodnutia znepokojuje veľa ľudí.

 

"Pokiaľ budú zbrane používať neurónové siete a pokročilú umelú inteligenciu, potom možno ani nebudeme vedieť, na základe čoho sa rozhodli zaútočiť - a to je veľmi nebezpečné," povedal hlavný technologický odborník spoločnosti Ultra Electronics Andrew Nanson. Treba dodať, že je Nanson dosť skeptický ohľadne niektorých tvrdení výrobcov zbraní. Jeho firma sa špecializuje na obranu.

Automatizované obranné systémy sú už teraz schopné robiť rozhodnutia na základe analýzy hrozby - napríklad tvaru, veľkosti, rýchlosti a trajektórie blížiacej sa strely - a zvoliť zodpovedajúcu reakciu oveľa rýchlejšie, ako dokáže človek. Ale čo sa stane, keď sa podobné systémy stretnú s niečím, s čím nemajú žiadnu skúsenosť - a pritom budú mať voľnú možnosť postupovať na základe svojho "najlepšieho odhadu"? Chyby by mohli mať katastrofálne následky. Zabitie nevinných civilistov, zničenie nevojenských cieľov alebo útok proti vlastnej strane. A práve toho sa mnohí experti obávajú. Nie toho, že umelá inteligencia začne byť príliš chytrá a prevezme kontrolu nad svetom, ako superpočítač Skynet z filmov o Terminátorovi, ale toho, že je príliš hlúpa."Súčasné problémy nie sú  spojené so superinteligentnými robotmi, ale s tými hlúpymi, ktoré nedokážu pružne rozlíšiť medzi civilnými a vojenskými cieľmi, s výnimkou veľmi úzko vymedzeného nastavenia," poznamenal profesor umelej inteligencie a robotiky Sheffieldskej univerzity Noel Sharkey.

Čítajte ďalej
VIDEO
Prečítajte si aj
Najčítanejšie