Še eno v vrsti javnih opozoril na nevarnosti umetne inteligence

Jurij Kristan

30. maj 2023 ob 21:03:32

Dobili smo še tretje v nizu odmevnih javnih opozoril vodilnih strokovnjakov za strojno učenje, da naj bi umetna inteligenca predstavljala resno nevarnost za propad človeške civilizacije.

Odkar se je lanske jeseni - z nastopom ChatGPTja - strojno učenje prebilo na čelo razvpitosti v IT industriji in širše, se vrstijo tudi vse pogostejša javna opozorila, da je napredek prehiter. Razvijalci algoritmov strojnega učenja, kot so veliki jezikovni modeli in generatorji slik, kakor da so nenadoma ugotovili, da situacije ne nadzorujejo več in nas utegne AI že v razmeroma bližnji prihodnosti vse nadvladati. Tu ne gre za kakšne odpadnike, temveč smetano raziskovalcev ter inženirjev, kot sta dva od treh dobitnikov Turingove nagrade iz leta 2019, Geoff Hinton in Yoshua Bengio, pa vodje skorajda vseh najvidnejših razvojnih laboratorijev.

Najnovejša tovrstna objava prihaja iz organizacije Center for AI Safety (CAIS) in je dolga vsega 22 besed, v katerih trdi, da je stopnja nevarnosti, ki jo umetna inteligenca predstavlja za človeško civilizacijo, primerljiva s tisto jedrskega orožja in nevarnih nalezljivih bolezni. Med prvimi (se pravi uradnimi) podpisniki so poleg Hintona in Bengia tudi vodje OpenAIja, Google DeepMinda in Anthropica Sam Altman, Demis Hassabis in Dario Amodei, pa še Ilya Sutskever in mnogi profesorji z ameriških univerz. Kakor je za New York Times povedal vodja Caisa Dan Hendrycks, je sporočilo tako kratko preprosto zaradi tega, da se je z njim lahko strinjalo čim večje število ljudi (plačljiv vir, alternativa). Kljub temu je CAIS poleg objavil tudi daljše medijsko sporočilo, v katerem pojasnjuje, da je namen spodbuditi strokovnjake in politike, da bi se pričelo oblikovati mehanizme, ki bi preprečili, da nas umetna inteligenca dobi s spuščenimi hlačami.

Kaj točno naj bi to pomenilo - tako na strani nevarnosti kakor ukrepov zoper njih - ni posebej pojasnjeno. Zaradi tega se tudi ob tej izjavi, podobno kot pri preteklih, pojavljajo mnogi pikri komentarji, da gre bodisi za povsem zgrešen pogled na problematiko strojne inteligence bodisi celo za namerno preusmerjanje pozornosti ali spretno trženje. Strokovnjaki za etiko strojnih algoritmov so že ob marčnem pismu pojasnili, da je biti plat zvona spričo domnevnega kataklizmičnega potenciala zelo cinično, ker algoritmi že sedaj povzročajo obilico zelo stvarnih težav, kot je denimo napačna prepoznava obraza v policijskih postopkih. Gre za temeljni prepad med dvema frakcijama raziskovalcev strojnega učenja: na eni strani so strokovnjaki za etiko AI, ki opozarjajo predvsem na diskriminacijo, ki jo povzročajo algoritmi sami ali njihov razvoj; na drugi so strokovnjaki za varnost AI, ki se osredotočajo na domnevo, da bi se lahko računalniki strgali z verige kot Skynet.

Ni odveč opozoriti še na dejstvo, da je takšne objave mogoče dobro izkoristiti tako za oglaševanje - v smislu, da če je izdelek tako grozljivo vsemogočen, mora biti tudi dober - kakor tudi za zaviranje dela regulatorjev. Altman je to pomlad na nekakšni kampanji skozi ameriško politiko, kjer spravljivo priznava, da bi veliki jezikovni modeli bržda potrebovali mnogo resnejšo regulacijo, in predlaga ustanovitev novih nadzornih delovnih teles v ta namen. Toda med strokovnimi komentarji je mogoče slišati, da gre za poskus preusmerjanja pozornosti, saj da zvezne agencije potrebna orodja za to že imajo - toda ker gre za pri tem za razbijanje tehnoloških monopolov in urejanje delavskih pravic, Altmanu in druščini to ne bi bilo preveč všeč.