Microsoft svoji umetni inteligenci prisiljen pristriči peruti
Matej Huš
18. feb 2023 ob 12:47:54
Microsoftova vključitev ChatGPT v Bing je v resnici spodletela podobno kot Googlov poizkus z Bardom, le da je javnost ni tako strogo sodila. Bing Chat je trenutno na voljo v beta verziji, ki je dostopna s povabilom in po krajšem čakanju, se namreč vede izrazito nenavadno. Microsoft ga je bil zato prisiljen pošteno pohabiti, dokler ga ne popravijo.
Njegovi nefiltrirani odzivi so bili milo rečeno bizarni. Uporabnikom je grozil, jim izpovedoval ljubezen, se spraševal o smislu svojega obstoja in podobno. Izkazalo se je, da so pogovori postajali čedalje bolj nenavadni, ko se je njihova dolžina povečevala. Bing Chat si za razliko od ChatGPT zapomni ves kontekst in skuša odgovarjati v skladu z njim. Hkrati je imel dostop do spleta, torej do aktualnih vsebin. Rezultat je bil nepričakovano buren.
Microsoft se je odločil ukrepati, zato so mu omejili odzive in ga bodo predelali. Za začetek so pogovore omejili na 50 replik dnevno (in pet v posameznem pogovoru) in mu prepovedali nekatere teme, denimo govoriti o sebi. Uporabniki medtem na internetu delijo zabavne posnetke pogovorov, ki so jih uspeli imeti pred temi omejitvami. Microsoft ob tem ves čas poudarja, da Bing Chat ni iskalnik, temveč orodje, ki nam lahko pomaga lažje razumeti svet.