Google suspendiral inženirja po izjavah, da bi njihov strojni algoritem lahko imel zavest

Jurij Kristan

14. jun 2022 ob 07:55:30

V Googlu so svojega raziskovalca strojne inteligence Blaka Lemoina poslali na plačan dopust, ker je pričel javno opozarjati, da naj bi njihov pogovorni algoritem LaMDA dosegel neko sorto zavesti. Dogodek je znova spodbudil živahno razpravo o tem, če in kdaj utegnejo strojno učeni algoritmi postati neločljivi od človeških sogovornikov.

Na lansko pomlad so pri Googlu pokazali svoj pogovorni strojni algoritem LaMDA, ki je po domače povedano nekakšna različica GPT-3, usmerjena v pogovore. S takšnimi algoritmi namerava podjetje predvsem izboljšati chat bote za pomoč uporabnikom, naročanje in druge podobne storitve. V okviru razvoja imajo tudi oddelek Responsible AI, ki skozi mukotrpne preizkuse preverja, ali se v modele nemara kje zaredijo rasistične nečednosti, diskriminatorni vzorci in podobne tegobe. Eden od inženirjev oddelka je tudi Blake Lemoine, ki je z Lambdo preživel zadnjih šest mesecev - in očitno prišel do zaključka, da se pomenkuje z inteligentno entiteto - oziroma takšno, ki poseduje osebno zavest.

Možakar je druge v podjetju na to najprej aprila opozoril interno, z dokumentom s priloženim vzorčnim pogovorom z botom (pred dnevi ga je delil še javno). Ker naj bi med kolegi naletel na posmeh in zavračanje, se je odločil oditi tudi po zunanja mnenja, med drugim k pravnikom in celo predstavniku Bele hiše; na svoje namere je opozoril tudi javno, skozi objave na Mediumu. S tem je po mnenju podjetja pošteno prestopil mejo in razkril poslovne skrivnosti, zaradi česar so ga poslali na prisilni dopust. Po izjavi pristojnih v Googlu (plačljiv vir, alternativa) so Lemoinovi sodelavci njegove pomisleke pregledali in prišli do zaključka, da ni nobenih znakov, da bi LaMDA zares prišla količkaj blizu samozavedanju o svojem obstoju, pa čeprav zna biti pri tem mestoma res precej prepričljiva.

Pripetljaj je na spletu in v stroki sprožil živahne debate, v katerih pa so si inženirji večjidel složni, da algoritmi, kot je LaMDA, sicer res znajo samozavedanje presneto dobro igrati, a ga v resnici še ne posedujejo. Ker so rezultat učenja na brezštevilnih resničnih človeških pogovorih, znajo nemalokrat res odlično posnemati naše izražanje počutja in denimo ukvarjanje z duševnimi problemi, toda obenem izrečenega ne razumejo zares. Ljudje pa imamo pač navado, da antropomorfiziramo, torej pripisujemo človeške lastnosti pojavom zunaj nas, če so podobni stvarnemu človeškemu ravnanju.