Microsoft svoji umetni inteligenci prisiljen pristriči peruti
Slo-Tech - Microsoftova vključitev ChatGPT v Bing je v resnici spodletela podobno kot Googlov poizkus z Bardom, le da je javnost ni tako strogo sodila. Bing Chat je trenutno na voljo v beta verziji, ki je dostopna s povabilom in po krajšem čakanju, se namreč vede izrazito nenavadno. Microsoft ga je bil zato prisiljen pošteno pohabiti, dokler ga ne popravijo.
Njegovi nefiltrirani odzivi so bili milo rečeno bizarni. Uporabnikom je grozil, jim izpovedoval ljubezen, se spraševal o smislu svojega obstoja in podobno. Izkazalo se je, da so pogovori postajali čedalje bolj nenavadni, ko se je njihova dolžina povečevala. Bing Chat si za razliko od ChatGPT zapomni ves kontekst in skuša odgovarjati v skladu z njim. Hkrati je imel dostop do spleta, torej do aktualnih vsebin. Rezultat je bil nepričakovano buren.
Microsoft se je odločil ukrepati, zato so mu omejili odzive in ga bodo predelali. Za začetek so pogovore omejili na 50 replik dnevno (in pet v posameznem pogovoru) in mu prepovedali nekatere...
Njegovi nefiltrirani odzivi so bili milo rečeno bizarni. Uporabnikom je grozil, jim izpovedoval ljubezen, se spraševal o smislu svojega obstoja in podobno. Izkazalo se je, da so pogovori postajali čedalje bolj nenavadni, ko se je njihova dolžina povečevala. Bing Chat si za razliko od ChatGPT zapomni ves kontekst in skuša odgovarjati v skladu z njim. Hkrati je imel dostop do spleta, torej do aktualnih vsebin. Rezultat je bil nepričakovano buren.
Microsoft se je odločil ukrepati, zato so mu omejili odzive in ga bodo predelali. Za začetek so pogovore omejili na 50 replik dnevno (in pet v posameznem pogovoru) in mu prepovedali nekatere...