vir: Meta
Pred šestimi leti je Microsoftova robotska sogovornica Tay zakuhala enega odmevnejših škandalov v razvoju avtomatskih sogovornikov (ali chatbotov), ko se je pustila s strani spletnih pridaničev naučiti preklinjanja, rasizma in podobnih nečednosti. Dogodek je dejansko za nekaj časa ohladil področje eksperimentiranja s tovrstnim programjem, saj odmevnejših javnih preizkusov splošnih robotskih sogovornikov ni bilo več na spregled, razvoj pa je bil v tem času še najbolj opazen v strogo namenskih servisih, običajno za pomoč uporabnikom, spletno prodajo in podobno. Sedaj je videti, da je razmah velikih jezikovnih modelov (large language model - LLM), kakršen je razvpiti GPT-3, ponovno spodbudil tudi ukvarjanje z računalniškimi sogovorniki, ki naj bi jih teoretično lahko vprašali karkoli.
Metin oddelek Facebook AI Research (FAIR) je najprej maja pokazal lasten LLM algoritem OPT-175B, svojega tekmeca GPT-3. Da bi se izognili nevšečnostim s pristranskim učenjem algoritma, so ga odprli in dali brezplačno na razpolago v preizkušanje. Sedaj je očitno, da je bil to šele začetek, kajti pred dnevi so pokazali še chatbota, ki ga gradijo na tej osnovi, z imenom BlenderBot 3. Njegova značilnost je ob omenjenem še sposobnost iskanja informacij po spletu, kar sicer ni novost sama zase, je pa svež spoj omenjenih dveh pristopov, torej modernega LLM algoritma na osnovi nevronske mreže s transformerjem in pa rudarjenja spletnih podatkov. Na razpolago so tudi dokumentacija, parametri in začetna učna baza podatkov, medtem ko je pogovor tehnično zaenkrat omejen na Američane, če se seveda ne znajdemo.
Da bi se v Meti izognili zadregi, kakršne je bil deležen Microsoft s Tay, ima BlenderBot 3 vgrajen zaznavalnika trolov, za katerega bo vsekakor zanimivo videti, kako se bo obnesel v praksi. Tudi sicer je možnost, da se bot strga z verige, manjša kot pri Tay, saj se ne uči tako hitro in v realnem času. Z izkušnjami iz pogovorov ga posodabljajo postopno, zmore pa si zapomniti, o čem se je pogovarjal v neki debati, oziroma v več pogovorih z isto osebo, če mu uporabnik to dovoli s piškotki. Sposobnost iskanja stvarnih informacij je ključna, če naj se chatbota uporablja kot pametnega pomočnika v smislu Alexe. Jezikovni algoritmi, kot sta GPT-3 ali LaMDA, so sicer zmožni dostikrat sproducirati tako človeške odgovore, da so nekateri pripravljeni priseči, da premorejo zavest, toda v resnici zgolj zelo dobro oponašajo tisto, kar so se učili. In če v tem učnem materialu ni informacij o najnovejših filmih ali restavraciji za sosednjim vogalom, bodo bolj slabi pomočniki.