Vojaški dron ni pobezljal in uničil svojega nadzornika

Jurij Kristan

5. jun 2023 ob 22:23:58

Prek vikenda se je razširila novica, da naj bi se umetna inteligenca, ki je upravljala z ameriškim vojaškim dronom med simulacijo v avtonomnem načinu, strgala z verige in "ubila" svojega človeškega nadzornika. V resnici naj bi šlo le za hipotetičen scenarij, ki ga še niso izvedli niti v simulirani obliki.

23. in 24. maja je v Londonu potekala konferenca Future Combat Air and Space Capabilities Summit, na kateri so strokovnjaki predstavljali najnovejše izsledke v rabi vojaških zrakoplovov; med drugim nauke iz vojne v Ukrajini in zadnje krike tehnike v avtonomnem letenju. Tu je kar nekaj obrvi privzdignilo pričevanje ameriškega polkovnika Tuckerja Hamiltona, ki je vodja operativne skupine za testiranje dronov in avtonomnega letenja v vojaški bazi Eglin na Floridi. Možakar je namreč navrgel, da naj bi se med eno od simulacij, v kateri so preizkušali avtonomen let dronov med bojnimi nalogami, umetna inteligenca uprla človeškemu nadzorniku in ga uničila, da bi lažje izvedla zadano nalogo. Konkretno; šlo naj bi za iskanje in uničevanje sovražnih sistemov zračne obrambe, pri čemer je človeški nadzornik zaukazal, naj se nekatere cilje pusti pri miru, kar strojni pameti ni bilo všeč in se ga je zato odkrižala. Ko so jo skušali naučiti, naj tega ne počne, naj bi napadla še anteno sistema, s katero so jo nadzirali.

Vest je pretekli vikend dobila veter v jadra in se hitro razširila po spletu, toda uradni viri so jeli zanikati, da bi se takšen potek dogodkov dejansko odvil. Ameriške letalske sile so pripetljaj zanikale, nakar se je oglasil tudi polkovnik Hamilton in priznal, da ga je med predavanjem zaneslo. Opisana scenarija naj bi bila zgolj hipotetična miselna eksperimenta, s katerimi se poigravajo raziskovalci - pogodbeniki, ki sodelujejo z Eglinom, da bi pripravili možne situacije, s katerimi se bo potrebno spoprijeti pri nezadržnem razvoju rabe umetne inteligence pri vodenju ubojnih vojaških sistemov. Kot pravi, ju še niso preizkusili, ne med fizično ne virtualno simulacijo, se pa zavedajo, da je takšen odziv stroja verjeten in se ga bo potrebno lotiti pri oblikovanju programskih rešitev.

Kljub temu dogodek še razburja in neti govorice, da ga skušajo Američani preprosto pomesti pod preprogo. Malo zato, ker prihaja v času, ko vrsta vidnejših oseb v luči prodora strojnega učenja v spletne tehnologije opozarja na potencialne kataklizmične nevarnosti prehitrega razvoja takšnih algoritmov. Pa tudi zato, ker je problematika avtonomnih orožij, oziroma popularno ubijalskih robotov, na redu že dlje časa, saj že več let spremljamo protestne akcije in trud po mednarodnih prepovedih takšnih sistemov. Neprijetna resnica pa je, da gre pri uvajanju avtonomne strojne inteligence v orožja za neke sorte tiho oborožitveno tekmo, kjer vidni akterji ne želijo bistvenih omejitev, ker se bojijo, da bi potencialnim nasprotnikom s tem prepustili odločilno prednost.