» »

Tay tudi vdrugo pokvarjena

Tay tudi vdrugo pokvarjena

Slo-Tech - Microsoftova Tay, ki je morala zaradi neprimernih tvitov po vsega 16 urah delovanja na oddih in predelavo , je danes znova oživela, a le za kratek čas. Ob 9.30 po slovenskem času je ponovno začela tvitati, a so jo po dobrih desetih minutah spet ugasnili. Microsoft pravi, da so jo pomotoma vključili prekmalu, nekateri pa špekulirajo o morebitnem vdoru.

Medtem ko je bila Tay minuli teden rasistka, nacistka in še kaj, je bila danes intenzivna spamerka in še vedno vsaj malo rasistka. Večina tvitov je bila enakih, in sicer You are too fast, please take a rest. Objavljala je s hitrostjo sedem tvitov na sekundo, kar je res veliko. Niso pa bili vsi takšni, sta bila pa skladnja in besedišče bistveno drugačna kakor minuli teden. To in nekaj kriptičnih objav (npr. u suck v binarni ASCII predstavitvi) dopuščajo tudi možnost, da je kdo vdrl v Tay.

Microsoft je le suho odvrnil, da je Tay oživela po pomoti, in hitro zaklenil njen račun. Tekom dneva so večino čudnih tvitov tudi pobrisali, še vedno pa ni znano, kdaj bo Tay nazaj. Mimogrede, Microsoftova konference Build 2016, ki bo posvečena umetni inteligenci, se začenja prav danes.

15 komentarjev

MaterVola ::

Vdrugo?

4T4T4O ::

Otrok je še!

Bistri007 ::

Prej se je navdušila na Trumpom, sedaj bi pa lahko začela lajati, kot Clintonovka :))
Največja napaka desetletja je bila narejena 4. novembra 2008
Oni so goljufali in Alah je goljufal, Alah je najboljši prevarant. (Koran 3:54)
Citiraj svetega očeta Benedikta XVI. in postani "persona rudis"...

zero_max ::

Spet je zaTAYila.

Bellzmet ::

Pa so ji dali sploh kakšno knjigo za prebrat preden so jo spustili v svet?

Thuban ::

zgleda da nekdo malo paničari in jo je prezgodaj vnovič spustil v svet. Verjetno zaradi Microsoftova konference Build 2016.

Je pa očitno da so jo tokrat nastavili na "max varnost", da ne bi spet čivkala neprimerne tvite... žal pa so jo preveč omejili.

Prvi fail se je razumen, drugi pa je povsem odvečen.
I'm sorry, Dave. I'm afraid I can't do that.

Zgodovina sprememb…

  • spremenil: Thuban ()

GupeM ::

S tvitom You are too fast, please take a rest jim je samo sporočala da so jo prehitro spustili nazaj na net :D

Glugy ::

Torej morajo posebej narediti prepoznavanje vzorcev za slabe stvari ki jih ljudje izrečejo. Ko bodo ta sistem v nulo naštudiral bodo pa šele lahko potem imel super chatbota. Sam to je cel ločen projekt...

OK.d ::

Ja umetna inteligenca nima za burek:D
LPOK.d

Bellzmet ::

Ali Microsoft nima za burek.

Jupito ::

Mulčad tudi nima za burek, bo pa vseeno zajahala hype kot da smo spet v 1996. "Tehnološki navdušenci" v vlogi new age ezoterikov (z malo truda lahko najdeš iskro življenja pod vsakim kamnom). :D
I used to be with it, but then they changed what it was.
Now what I'm with isn't it and what's it seems weird
and scary to me. It'll happen to you!

Zgodovina sprememb…

  • spremenil: Jupito ()

Markoff ::

Rasistka, kaj? Dajmo jo spamat z antifa, da bo postala progresivna radikalna levičarka. To je neskončno bolje kot rasistka. In še bolj zabavno bo.
Ad astra per aspera

Bistri007 ::

Računalnik - rasist :D
Ni tam barva kože, ampak znamka procesorja. AMD niggers FTW!
Največja napaka desetletja je bila narejena 4. novembra 2008
Oni so goljufali in Alah je goljufal, Alah je najboljši prevarant. (Koran 3:54)
Citiraj svetega očeta Benedikta XVI. in postani "persona rudis"...

ginekk ::

Bellzmet je izjavil:

Ali Microsoft nima za burek.


Bolj to, ker recimo IBM je že pred (IT relativno) mnogo leti zmagal na ameriški različici "milijonarskega kviza". Pa kup od Microsofta uspešnejših poskusov malih firm (ali celo posameznikov) se pojavlja. Microsoft izgleda nima pojma in si dela škodo v IT svetu.

stegl ::

Hahaha glede na to da ima Microsoft najboljse programerje bi lahko komot "tay"u nastavili omejitve glede nato cemu je namenjen.. in to da jim je usel izpod nadzora je sramota.. pri par k zaposljenimi..


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Tay tudi vdrugo pokvarjena

Oddelek: Novice / Omrežja / internet
154763 (1905) stegl
»

Microsoft pojasnjuje, kaj je šlo narobe s Tay

Oddelek: Novice / Znanost in tehnologija
387702 (3632) Glugy
»

Učeči robot Tay v 16 urah od mladenke do vulgarnega nacista (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
5912536 (7471) kamikaze5

Več podobnih tem