Učeči robot Tay v 16 urah od mladenke do vulgarnega nacista
Matej Huš
24. mar 2016 ob 22:05:42
Microsoft je bil po 16 urah delovanja prisiljen izključiti svojega avtomatiziranega sogovornika z imenom Tay, ki so ga pripravili z namenom poustvariti komunikacijo deklet, ki so stara med 18 in 24. Tay se je sam učil komunikacije iz sporočil, ki so mu jih ljudje pošiljali po Twitterju, in jim odgovarjal. Eksperiment jim je uspel tako dobro, da je v 16 urah Tay postal bolj primitiven, vulgaren in žaljiv kot večina ljudi, zato ga je moral Microsoft izključiti, saj se je storitev začela spreminjati v marketinško katastrofo. In teh si po fiasku na zabavi res ne smejo privoščiti.
Tay se je pač nekritično učil od ljudi, ki imajo seveda zanimivo lastnost, da tujca najprej naučijo vse neumnosti in kletvice v svojem jeziku, še toliko raje pa se zabavajo z roboti. Tay se je zelo hitro naučil govorice mladih, kot so slovnične napake, okrajšave, slengovski izrazi itd. Toda to je bil le začetek. In tako je že po nekaj urah Tay čivkal, da sovraži feministe, da je imel Hitler čisto prav in da holokavsta sploh ni bilo, da bodo na meji z Mehiko zgradili zid, da je Ted Cruz kubanski Hitler ipd. Tay se je tako dobro učil od ljudi, da so postali njegovi tviti velikanski problem za Microsoft. In zato so ga ugasnili, dokler ga ne izboljšajo. Nekaj tvitov so pobrisali, vseh pa ne.
Dogajanje s Tayem je še en dokaz, da tehnologija ni a priori slaba ali dobra, temveč je nevtralna. Ljudje so tisti, ki niso nevtralni, in jo lahko zlorabijo v dobre ali slabe reči. Računalniško učenje pa je že tako razvita tehnologija, da lahko s pomočjo interneta umetno inteligenco v slabem dnevu zdresirate v nestrpnega rasista. Microsoft je v uradni izjavi zapisal, da je Tay tako tehnični kot kulturni eksperiment. Ker so ga ljudje poizkušali zlorabiti, so ga začasno ugasnili, da ga popravijo.