»

Epilog uporabe ChatGPT na sodišču: 5000 dolarjev kazni in sramota

Slo-Tech - Epilog je dobila bizarna zgodba izpred meseca dni, ko je odvetnik uporabil ChatGPT in na ameriško sodišče poslal povsem nesmiselno vlogo, v kateri je citiral več neobstoječih primerov. Ko so odvetniki nasprotne stranke to ugotovili in sodišče obvestili o zapletu, se je nepazljivi odvetnik sicer opravičil, sodišče pa je o nadaljnjih potezah še razmišljalo. Sedaj jih poznamo.

Zvezno sodišče je odločilo, da morajo nepazljiva odvetnika Steven Schwartz in Peter LoDuca in njuna pisarna Levidow, Levidow, & Oberman plačati 5000 dolarjev kazni. Eden izmed odvetnikov je vlogo napisal, drugi jo je namreč podpisal. Ob tem je sodnik Kevin Castel primer tudi zavrgel, ne le zaradi ChatGPT, temveč ker so bili argumenti dejansko neobstoječi. Hkrati pa morata oba odvetnika o tem pripetljaju obvestiti svojo stranko ter sodnike, katerih imena so navedli v vseh neobstoječih primerih.

Sodnik je ob tem dodal, da tovrstno početje trati čas in denar sodišč in drugih strank v postopkih. Hkrati negativno...

1 komentar

Prva tožba zoper OpenAI zaradi obrekovanja v ChatGPT

Slo-Tech - Vprašanje časa je bilo, kdaj bo OpenAI doletela prva tožba zaradi navedb, ki jih bo umetna inteligenca ChatGPT halucinirala. To je znana pomanjkljivost velikih jezikovnih modelov, ki si manjkajoče informacije preprosto izmislijo, saj je njegova glavna naloga ustvarjanje besedil, ne pa faktično točnih povzetkov. Radijski voditelj Mark Walters iz Georgie, ki je eden največjih zagovornikov pravice do nošenja orožja v ZDA, toži OpenAI, ker je ChatGPT ustvarjal neresnične navedbe o njem.

Novinar Fred Riehl je ChatGPT-ju podal povezavo do resničnega primera na zveznem sodišču in prosil za povzetek. ChatGPT se je odzval z besedilom, ki je bilo neresnično, v njem pa je o Waltersu zmešal resnične informacije in laži. Med drugim je na primer trdil, da je Walters domnevno poneveril več kot pet milijonov dolarjev Second Amendment Foundation. Walters ni bil nikoli niti osumljen česa takšnega. Riehl teh informacij seveda ni objavil, jih je pa preveril. Tako je verjetno tudi Walters izvedel...

40 komentarjev

Kaj bi lahko šlo narobe, če odvetniki uporabljajo ChatGPT

Slo-Tech - Pred štirimi leti je Roberto Mata z letalom družbe Avianca potoval iz El Salvadorja v New York. Med strežbo ga je eden izmed članov posadke z vozičkom zadel v koleno, kar je po Matovih besedah povzročilo poškodbo, zato je prevoznika tožil. Avianca je v odzivu predlagala, da sodišče primer zavrže, ker je vmes že zastaral. Odvetniki tožnika so odgovorili z deset strani dolgim pojasnilom, v katerem so navajali več sodnih primerov, zakaj sodišče tega ne bi smelo storiti. Z argumentacijo je bil samo en problem: v njej so navajali dvanajst primerov, ki jih ni mogel najti nihče.

Odvetniki Aviance so namreč pri analizi predloga tožnika naleteli na primer Varghese v China South Airlines Ltd, 925 F.3d 1339 (11th Cir. 2019), a pri iskanju niso našli nič podobnega. Iskanje po priimku, številki zadeve in drugih primerih je bilo neuspešno. Podrobna analiza je pokazala, da se tožnik sklicuje še na druge neobstoječe primere. Sodišče je odvetnikom nemudoma naložilo, da morajo pojasniti, kaj se...

41 komentarjev

Apple zaposlenim prepovedal uporabo ChatGPT

Slo-Tech - Medtem ko so šole v New Yorku ugotovile, da se nima smisla boriti z mlini na veter, in so preklicale prepoved uporabe ChatGPT na svojih omrežjih, je v podjetjih seveda drugače. Apple je zadnje v vrsti podjetij, ki so zaposlenim prepovedale uporabo tovrstnih orodij, da podatki ne bi odtekali v svet.

Apple ni prepovedal le uporabe ChatGPT, temveč vseh sorodnih orodij umetne inteligence. Istočasno razvijajo lastnega pomočnika z umetno inteligenco, tujih pa ne marajo, ker bi tako lahko pobegnile interne in zaupne informacije. Poleg sogovornikov, kakršna sta Bing Chat ali ChatGPT, Apple ne dovoli uporabe niti GitHubovega Copilota, ki poenostavlja pisanje kode.

Ključni problem je, da ChatGPT in ostali komunicirajo z avtorji. Da bi se učili, si shranjujejo vnose uporabnikov. V preteklosti smo že videli napake, ko so v nekaterih primerih to celo razkrivali tudi drugim uporabnikov. OpenAI je sicer izdal plačljivi ChatGPT, ki omogoča izklop deljenja podatkov. A tudi brez tega je...

15 komentarjev

ChatGPT že uradni soavtor znanstvenih člankov, čeprav ne bi smel biti

Slo-Tech - Čudenje sveta nad zmožnostmi sogovornika ChatGPT ne jenja, temveč ljudje iščejo nove načine uporabe. ChatGPT se je uradno prebil tudi med znanstvenike ali pa vsaj soavtorje znanstvenih prispevkov, saj so se pojavili že štirje članki oziroma rokopisi, kjer so raziskovalci pri pisanju uporabili ChatGPT in ga tudi navedli med soavtorji. Jasnih pravil na tem področju še ni, zato bodo morali uredniki, založniki in raziskovalci stakniti glave in ugotoviti, kako regulirati novo tehnologijo. Od novembra, ko je postala javno dostopna, jo namreč lahko uporablja kdorkoli.

Kot veliki jezikovni model in napreden algoritem strojnega učenja se je ChatGPT naučil iz ogromnih količin besedil na internetu. Rezultat je prepričljivo posnemanje človeškega jezika, a o globljem razumevanju ne moremo govoriti, saj se ChatGPT brez težave tudi zlaže ali odgovori popolne neumnosti. Medtem ko so njegovi eseji za šolsko rabo videti prepričljivi, je v znanosti trenutno žgoče vprašanje, kako in v kolikšni meri...

19 komentarjev

ChatGPT lahko piše prepričljive povzetke znanstvenih člankov

Slo-Tech - Odkar je ChatGPT javno dostopen, se uporabniki čudijo nad najrazličnejšimi vlogami, ki jih je sposoben prevzeti, in nalogami, ki jim je kos. Mednje sodi tudi pisanje povzetkov (abstract) znanstvenih člankov, ki predstavljajo ključno vstopno točko v objavo in često določajo, ali bo nek članek pritegnil pozornost bralca. Pri tem je ChatGPT tako dober, da v številnih primerih znanstveniki ne morejo ugotoviti, ali je nek povzetek napisal človek ali ChatGPT. Raziskovalci z dveh chicaških univerz v (še nerecenziranem) rokopisu poročajo o raziskavi, kjer so ugotavljali, kako dobri so ti povzetki.

Rezultati so zaskrbljujoči, saj ChatGPT piše povzetke, ki so dovolj dobri, da znanstvenike često preslepijo. Za 50 medicinskih revij so poiskali primerne naslove, ki so bili že objavljeni, nato pa ChatGPT naročili, naj napiše povzetek članka glede na ta naslov. Te so potem primerjali z resničnimi povzetki na različne načine. Uporabili so detektor plagiatorstva, detektor pisanja z umetno...

61 komentarjev