Učeči robot Tay v 16 urah od mladenke do vulgarnega nacista
Slo-Tech - Microsoft je bil po 16 urah delovanja prisiljen izključiti svojega avtomatiziranega sogovornika z imenom Tay, ki so ga pripravili z namenom poustvariti komunikacijo deklet, ki so stara med 18 in 24. Tay se je sam učil komunikacije iz sporočil, ki so mu jih ljudje pošiljali po Twitterju, in jim odgovarjal. Eksperiment jim je uspel tako dobro, da je v 16 urah Tay postal bolj primitiven, vulgaren in žaljiv kot večina ljudi, zato ga je moral Microsoft izključiti, saj se je storitev začela spreminjati v marketinško katastrofo. In teh si po fiasku na zabavi res ne smejo privoščiti.
Tay se je pač nekritično učil od ljudi, ki imajo seveda zanimivo lastnost, da tujca najprej naučijo vse neumnosti in kletvice v svojem jeziku, še toliko raje pa...
Tay se je pač nekritično učil od ljudi, ki imajo seveda zanimivo lastnost, da tujca najprej naučijo vse neumnosti in kletvice v svojem jeziku, še toliko raje pa...