Googlovo nadgrajeno iskanje ima sila neroden štart

Jurij Kristan

29. maj 2024 ob 23:01:42

Strojni odgovori, ki jih v Googlovem iskalniku postreže z Geminijem podprta tehnologija AI Overviews, so v preteklem tednu postali predmet posmeha širom spleta, saj pogosto halucinirajo.

Sredi maja so pri Googlu na dogodku I/O 2024 predstavili vrsto novosti na temelju Geminija, svoje osrednje platforme generativnih algoritmov. Med njimi AI Overviews, dodatek k običajnim rezultatom svojega iskalnika, ki postreže z jedrnatim generiranim odgovorom na podlagi dosegljivih spletnih vsebin, kakršnih smo zadnje čase vajeni od pogovornih botov. V dneh po prireditvi so pričeli tehnologijo postopno lansirati za uporabnike čez Lužo ... in ti so hitro naleteli na milo rečeno nenavadne in zabavne odgovore ter predloge, ki jim jih je iskalnik vrnil. Med množico hecnih idej iskalnika so trditve, da v ligi NBA igrajo psi, da je Barack Obama musliman, ali da so imeli nekateri ameriški predsedniki po ducat diplom. Največ razburjenja pa je upravičeno povzročil napotek, da naj na pico dodamo nekaj lepila, če nam sir prehitro spolzi z nje. Vir za to zamisel je 11 let star shitpost z Reddita, za nameček spod prstov avtorja z nadimkom fucksmith.

Pikri jeziki so takoj pripomnili, da je to rezultat februarske sklenitve sodelovanja med Googlom in Redditom, toda problematika je v splošnem globoka in resna, saj grobo potrjuje kritike, da so veliki jezikovni modeli še preveč nezanesljivi, oziroma si preveč zmišljujejo, da bi bili nared za tako pomembno nalogo, kot je spletno iskanje. Ironično je Googlov direktor Sundar Pichai ravno nekaj dni pred tem v intervjuju za Verge priznal, da na problem haluciniranja še nimajo dobrega odgovora - pa so funkcijo kljub temu lansirali. To kaže na splošno naravnanost področja v smeri tveganja zaradi strahu, da bi konkurenca nemara dobila prednost; vse pa gre na račun uporabnikov, ki dobijo dostikrat netočne, občasno pa celo nevarne odgovore. Da sistemska rešitev še ne obstaja, kaže tudi poročanje, da morajo v podjetju sedaj neprimerne odgovore odstranjevati na roko, medtem ko sami zatrjujejo, da so takšni odgovori redkejši in "se pojavljajo ob neobičajnih vprašanjih".

Kritiki opozarjajo, da prigoda izpostavlja dejstvo, da bistvenega napredka v zmogljivostih velikih jezikovnih modelov nismo videli vse od nastopa GPT-4. Še vedno ogromno halicinirajo, ne znajo ločiti šal od resnih trditev in niso nič boljši v logičnih problemih. Vsaj kar se tiče AI Overviews, nam jih Google v Evropi še ne vsiljuje, v ZDA pa so že našli kopico načinov, kako se funkcije v brskalniku znebiti.