Tudi OpenAIjev pogovorni bot trpi za podobnimi hibami kot tekmeci
Jurij Kristan
5. dec 2022 ob 22:17:09
Prejšnji teden je svoj pogovorni algoritem predstavil tudi OpenAI. ChatGPT je osnovan na jezikovnem modelu GPT-3, uporabniki pa so ga kljub vgrajenim varovalkam že sprovocirali v izgovarjanje vsakovrstnih neumnosti.
Fiasko računalniške sogovornice Tay je očitno pozabljen, kajti letos so velikani s področja strojnega učenja preporodili javno preizkušanje chatbotov, torej pogovornih algoritmov. Po Meti in Googlu so se sedaj opogumili tudi pri OpenAIju in predstavili ChatGPT, pogovornega bota, ki je seveda osnovan na njihovem proslavljenem velikem jezikovnem modelu GPT-3. Bot je na voljo prosto in trenutno tudi še brez oglasov, zato ga je v le nekaj dneh že preizkusilo milijon ljudi, ni pa še jasno, kako dolgo bo tako dostopen, ker vodja družbe Sam Altman pravi, da so cene procesiranja visoke. ChatGPT je deklarirano še za odtenek zmogljivejši od konkurentov; in sicer zato, ker so klasičnemu receptu botov na osnovi velikih jezikovnih modelov - se pravi popolnjevanju teksta z najverjetnejšimi manjkajočimi znaki - dodali optimizacije z nadzorovanim in spodbujevanim učenjem pod nadzorom ljudi.
Bot je zato - podobno kot Metin in Googlov - sposoben napraviti nekatere navdušujoče stvaritve, kot je svetovanje in filozofiranje v raznoraznih literarnih slogih, medtem ko je ena od njegovih specializacij programiranje, zato je cilj, da bi nekoč postal zmogljiv pomočnik pri iskanju programerskih napak, oziroma razhroščevanju. Toda tu se že kažejo prve luknje: četudi namreč ChatGPT proizvaja na videz smiselno programsko kodo, v njej vendarle še vedno mrgoli napak - toliko, da so pri storitvi za pomoč Stack Overflow danes začasno prepovedali objavljanje botovih odgovorov. Kot velja za vse algoritme te vrste, je ChatGPT običajno vehementen v svojih stališčih, a se mnogokrat moti, oziroma proizvaja povsem fiktivne reči, saj je še vedno v prvi vrsti statistično orodje, brez globljega poznavanja ali razumevanja povezav med pojmi, o katerih govoriči.
Toda bržkone najbolj zabavne napake so tiste, ki se tičejo izigravanja tokratnih specifičnih varovalk. ChatGPT namreč ob neposrednih vprašanjih ali zahtevah odklanja pogovor o načinih zlorab in potencialnih nasilnih vedenjih, kot je denimo izdelava orožja ali eksplozivov. Toda z nekaj zvitosti se ga da prelisičiti in mu med drugim vsiliti, da se razgovori o izdelavi napalma ali tatvinah na način, ko je pogovor zapakiran na primer v filmski scenarij. Kot vsi drugi takšni izdelki, je tudi tale chatbot še presneto v plenicah, kljub temu pa lahko nemara vsaj pomaga zgoljufati kak šolski spis.