» »

Odvetniki zaradi umetne inteligence čedalje pogosteje citirajo izmišljene primere

Odvetniki zaradi umetne inteligence čedalje pogosteje citirajo izmišljene primere

Slo-Tech - Pred dvema letoma smo pisalo o odmevnem primeru v ZDA, ko je odvetnik sodišču predložil dokumente, ki so se sklicevali na neobstoječe primere. Izkazalo se je, da si jih je izmislila umetna inteligenca, ki jo je odvetnik nespretno uporabil. Tedaj jo je odnesel s 5000 dolarjev kazni, opravičilom in obljubo, da tega ne bo več počel. A to ni bil osamljeni primer, se je izkazalo.

V ZDA so odvetniki večkrat uporabili umetno inteligenco in pri tem navajali fantomske primere. Sodišča so do teh izpadov čedalje manj prizanesljiva, ker je nezanesljivost umetne inteligence že splošno znana in bi moral vsak odvetnik preveriti njene izdelke, zlasti reference. Rafael Ramirez, ki je zastopal podjetje HoosierVac, je oktobra lani na primer v enem izmed zahtevkov citiral neobstoječi primer, kar je sodnik hitro ugotovil. Kasneje so pregledali še njegove ostale vloge in ugotovili, da je tudi v vsaj dveh drugih primerih storil enak. Sodišče ni bilo zadovoljno z njegovim pojasnilom, da uporablja umetno inteligenco kot pomoč in da ni vedel, da lahko halucinira. Zatrdil je, da se bo izobrazil o njenem delovanju, a mu je sodnik vseeno prisodil 15.000 dolarjev kazni. Ob tem sodišče dodaja, da umetna inteligenca ni a priori slaba ali neuporabna. Gre za orodje, ki pa ga je treba znati uporabljati. Odvetnik ni pokazal niti najmanjše stopnje skrbnosti, saj bi moral citirane primere preveriti, česar ga uporaba umetne inteligence ne odvezuje. In bil je kaznovan.

V nekem drugem primeru januarja letos se je zgodilo popolnoma enako. Drugi odvetniki so se sklicevali na primere, ki jih sodišče ni našlo. Sodišče je zahtevalo pojasnila, odvetniki pa so dejali, da so uporabili generativno umetno inteligenco. Sodišče jim je minuli teden izreklo od 1000 do 3000 dolarjev globe, enemu pa so preklicali začasno licenco v zvezni državi, kjer nima polne licence.

31 komentarjev

Seljak ::

Tako izobraženi ljudje so lahko tako...neizobraženi.

Netrunner ::

Marsikje uporabljajo AI, da pohitrijo delo, da lahko več naredijo in več zaslužijo. Pravilnost informacij ni prioriteta. Prevajalci npr. ne prevajajo več ampak uporabijo ai in samo enkrat preberejo skozi če je kakšna velika napaka. Na tak način naredijo dosti več prevodov, računajo pa enako kot so prej :) Marsikje ni s takim pristopom nič narobe, saj aI je orodje vendar tam kjer se igrajo z usodo ljudi pa bi bilo lepo od njih da 2x preverijo če že ne rabijo pisat.

Drugače pa, pri odvetnikih je umetna inteligenca nujno potrebna saj naravne inteligence je bolj malo.
Doing nothing is very hard to do... you never know when you're finished.

feryz ::

Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.

Seljak ::

feryz je izjavil:

Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.


Podaj en praktičen primer iz tvojega življenja z dokazilom, da lahko utemeljiš zapisano.

Glugy ::

Mislm sej ni problem uporab umetno inteligenco. Sam dej vsaj prever kaj izpljune pa če primeri na katere se sklicuje obstajajo. Ne bit len!

feryz ::

A vi preverite kalkulator, če vam prav izračuna?
Predvidevam da ja. Oz. vsaj od prihoda ai dalje, bi ga morali.
Ker je lahko prav, lahko pa si kalkulator rezultat preprosto izmisli. Ok, če ima oznako ai, drugače se jim načeloma še lahko zaupa.

Utk ::

feryz je izjavil:

Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.

Klasična praksa, da ljudje uporabljajo stvari, ki jih ne razumejo. Kot "vsi" vejo, da statistika laže. Ne laže, samo uporabljat jo ljudje ne znajo.
Generativna umetna inteligenca dela točno to kar obljublja ime. Generira. Imaš tudi "inteligence", ki niso tako inteligentne, in pač iščejo (sicer lahko zelo pametno) po hardcore podatkih. Samo to ni tako kul, ker ti pač ne bo napisal eseja iz nečesa, ampak ga boš moral kar sam. Komot bi odvetnik uporabil pametno iskanje, našel te primere, in potem AI ukazal da napiše nek povzetek točno tega. Tu se (najbrž) ne bi kaj dost izmislila.

Zgodovina sprememb…

  • spremenil: Utk ()

Grimnir3 ::

feryz je izjavil:

Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.


AI modeli ala chatgps so statistika.

Sej veš, laž, velika laž, statistika :)

karafeka ::

Tule sedaj napadate ai. To je samo neko orodje. Odvetniki oz. celo sodstvo so tu glavni krivci, ki z minimalno dela obirajo ljudi. Ko bi vedeli koliko napačnih obsodb je bilo zaradi tega. Tisti ki pa so dejansko krivi, pa podmažejo cel sodni aparat in so prosti.

bm1973 ::

Ah, so se že pokazale slabosti AI.

Ljudje jim brezglavo zaupajo in ne znajo preveriti rezultatov.

Videno tudi tukaj na Slo-Tech...

feryz ::

Dobro da ai goljufa ali si izmišlja/generira samo pri odvetniških zadevah.
Tisti, ki jo uporabljajo za pomoč pri programiranju, lahko mirno spijo. Tam je vse tipi topi.

fikus_ ::

Sem že večkrat pisal, da je AI lahko zelo v pomoč in daje prednost tistemu, ki jo zna uporabljati. In v zgoraj opisanih primerih je bila v "pomoč", uporabnik je pa ne zna uporabljati, ni preveril stvari, ki so enostavno preverljive.
Učite se iz preteklosti, živite v sedanjosti in razmišljajte o prihodnosti.

bosmla ::

Problem je v ljudeh oz. "amorfni masi", ker smo ze stoletja trenirani da ubogamo oz. verjamemo avtoriteti. Lepo se je pokazalo tudi ze s pojavom socialnih omrezij - ker to predstavlja voljo visje avtoritete, kot recimo prej skoraj izkljucno drzavni (cerkveni) govorci/mediji, jim ljudje nauceno verjamejo...
Seveda to kvarno vpliva na vedenje splosne populacije. Seveda pa ni nujno slabo ali dobro, povzroca pa nemir na podrocju upravljanja z "amorfno maso".

Groot ::

karafeka je izjavil:

Tule sedaj napadate ai. To je samo neko orodje. Odvetniki oz. celo sodstvo so tu glavni krivci, ki z minimalno dela obirajo ljudi. Ko bi vedeli koliko napačnih obsodb je bilo zaradi tega. Tisti ki pa so dejansko krivi, pa podmažejo cel sodni aparat in so prosti.


No daj junak, pokaži mi te napačne obsodbe. Glede na tvojo glasnost jih boš najbrž najmanj 100 lahko takoj stresel iz rokava. Pa ne mi sedaj z ameriškimi bedarijami, kar če verjameš ali ne, tam ne odločajo pravniki, ampak enako šank nakladači kot si sam. Potem pa pride sistem v situacije, ko so posamezniki neupravičeno obsojeni.

starfotr ::

feryz je izjavil:

Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.


Saj ti se tudi zlažeš. To laž lahko nato AI uporabi za svoj model in in ko ga uporabiš dobiš isto, kot da vržeš drek v ventilator.

Utk ::

Problem je v ljudeh oz. "amorfni masi", ker smo ze stoletja trenirani da ubogamo oz. verjamemo avtoriteti.

Ni nujno da ravno avtoriteti. V bistvu komerkoli, glavno je da se preloži odgovornost na nekoga drugega.

Koliko računovodij še zna izračunat plačilno listo v nulo na roke s kalkulatorjem iz 80ih? Če gre napačna plačilna lista ven, je "kriv" program. Ne po zakonu, ampak po logiki ljudi.

V javni upravi je pa kup primerov ko si prelagajo odgovornost od enega do drugega.

Zgodovina sprememb…

  • spremenil: Utk ()

Ales ::

starfotr je izjavil:

feryz je izjavil:

Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.


Saj ti se tudi zlažeš. To laž lahko nato AI uporabi za svoj model in in ko ga uporabiš dobiš isto, kot da vržeš drek v ventilator.

"Halucinacije" AI modelov ne izhajajo iz tega, da bi bili vhodni podatki AI modela napačni.

Vhodni podatki so lahko vsi točni in AI algoritem dela pravilno (!), izhodni rezultat pa lahko pride ven popolnoma ali delno neresničen.

To dejstvo ljudem na splošno ni jasno. Ne dojemate tega.

Zgodovina sprememb…

  • spremenil: Ales ()

Magic1 ::

AI je super, samo je potrebno kar nekaj znanja in poznavanja samega delovanja, da je zadeva uporabna. Vsak klepec zna vprašat in dobit odgovor, ocenit kaj je res in kaj ne, je pa čist druga štorija. Ai se uči iz vsega, tudi iz fikcije. Doskrat povedana laž je resnica za AI.
Magic

Irbis ::

Me je pa zadnjič prijetno presenetil DeepSeek, ko sem mu rekel, naj mi napiše znanstveni članek na neko temo. Na koncu je pri literaturi lepo napisal:
Literatura (izmišljena za primer)
In res, znani avtorji s tega področja, naslovi so se brali kot nekaj, kar bi res lahko napisali, ampak nobeden od teh člankov v resnici ni obstajal.
Ampak me je pa vsaj izrecno opozoril na to.

Magic1 ::

In tega bo sedaj na potenco več na spletu in nadgrajeni modeli se bodo učili tudi iz teh smeti. Še bolj me pa skrbi, da bo zdaj lahko vsak znanstvenik in oddajal članke, ki jih bo AI spisal. Nekdo se bo samo malo potrudil, da bo naredil take spremembe, da ne bo BS viden iz aviona.
Magic

Zgodovina sprememb…

  • spremenil: Magic1 ()

Bezukhoff ::

At its most basic, machine learning uses programmed algorithms that receive and analyse input data to predict output values within an acceptable range. As new data is fed to these algorithms, they learn and optimise their operations to improve performance, developing 'intelligence' over time.

Aleš, to je sicer res, napisan algoritem resda lahko deluje as instructed, problem pa je, in to so, kot se mi zdi, izpostavili različni strokovnjaki iz tega področja, da se jim načeloma ne sanja kaj se potem dogaja znotraj tega kar AI "halucinira", še človeški um nam je v precejšnjem obsegu nedoumljiv, UI, pa čeprav le skupek kode, ostaja enaka neznanka.

jan_g ::

feryz je izjavil:

Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.


V bistvu jih je potrebno tudi tega naučiti, saj ta koncept ni samo posebi umeven. Torej jim dati podatke, dokumente o tem, kdaj naj odgovori z "Ne vem". To pride na vrsto ponavadi na drugi stopnji učenja, ko je osnovni model že narejen. Množica vsega znanja je jasno prevelika, da bi s to metodo izkoreninili vse halucinacije. Za primere, kjer tega ni naučen in bi torej odgovor "Ne vem" imel največjo verjetnost, bo model pač odgovoril z nečim drugim, kar bo po verjetnosti najvišje.

Drugače pa ima tudi uporabnik možnost, da preveri točnost podatkov: chatu rečeš, naj uporabi iskanje in povzame najdene informacije (torej, pogugla namesto tebe). Se mi zdi skoraj nujno, da bi nekdo v poziciji odvetnika uporabil to možnost za preverjanje referenc. Ne vem, če ima to že v free verziji ali ne, ampak nek odvetnik bo že izpljunil tistih 20 dolarjev na mesec, da bo imel vse na razpolago.

Ales ::

jan_g je izjavil:

V bistvu jih je potrebno tudi tega naučiti, saj ta koncept ni samo posebi umeven. Torej jim dati podatke, dokumente o tem, kdaj naj odgovori z "Ne vem". To pride na vrsto ponavadi na drugi stopnji učenja, ko je osnovni model že narejen. Množica vsega znanja je jasno prevelika, da bi s to metodo izkoreninili vse halucinacije. Za primere, kjer tega ni naučen in bi torej odgovor "Ne vem" imel največjo verjetnost, bo model pač odgovoril z nečim drugim, kar bo po verjetnosti najvišje.

Skratka, pravilno ugotavljaš, da AI model sam po sebi ni sposoben presoditi, kdaj kaj "ve" in kdaj "ne ve".

Drugače pa ima tudi uporabnik možnost, da preveri točnost podatkov: chatu rečeš, naj uporabi iskanje in povzame najdene informacije (torej, pogugla namesto tebe).

To ni preverjanje referenc. To je zgolj ponovna uporaba potencialno lažnivega "AI" modela.

Se mi zdi skoraj nujno, da bi nekdo v poziciji odvetnika uporabil to možnost za preverjanje referenc. Ne vem, če ima to že v free verziji ali ne, ampak nek odvetnik bo že izpljunil tistih 20 dolarjev na mesec, da bo imel vse na razpolago.

Na žalost zna biti, da bodo ljudje res to počeli in pri tem zmotno mislili, da preverjajo vire.

jan_g ::

Ampak ni isto, ker je vhodni "prompt" celoten rezultat iskanja/googlanja. Pozabil sem omeniti še novejše t.i. thinking modele, ki poleg odgovora podajo še razmišljanje, če lahko temu tako rečemo, tako da kot uporabnik vidiš, kakšna je bila pot do odgovora. Skratka, razvoj gre naprej in pametno je izkoristiti te možnosti.

gruntfürmich ::

od sedaj naprej verjamem samo nakladačem na slo-techu 8-)
"Namreč, da gre ta družba počasi v norost in da je vse, kar mi gledamo,
visoko organizirana bebavost, do podrobnosti izdelana idiotija."
Psiholog HUBERT POŽARNIK, v Oni, o smiselnosti moderne družbe...

111111111111 ::

feryz je izjavil:

A vi preverite kalkulator, če vam prav izračuna?
Predvidevam da ja. Oz. vsaj od prihoda ai dalje, bi ga morali.
Ker je lahko prav, lahko pa si kalkulator rezultat preprosto izmisli. Ok, če ima oznako ai, drugače se jim načeloma še lahko zaupa.

Mešaš hruške in jabolka. Za AI je splošno znano da halicunira in da je to en kos programske opreme za katerega ni 100%, zato je treba rezultate še neodvisno preverit.

feryz je izjavil:

Dobro da ai goljufa ali si izmišlja/generira samo pri odvetniških zadevah.
Tisti, ki jo uporabljajo za pomoč pri programiranju, lahko mirno spijo. Tam je vse tipi topi.

Pri nas v firmi se uporablja AI za programiranje, pa gre koda še vedno čez vsa preverjanja, pregleda jo programer, itd...

AI je samo orodje, ki je trenutno brez človeka, ki bi znal preveriti rezultate, popolnoma ničvredno. Isto pri odvetniških zadevah. Če odvetnik ne preveri potem to ni problem AI.
Če prisloniš uho na vroč šporhet, lahko zavohaš kak si fuknjen.

Zgodovina sprememb…

Kayzon ::

Aaaa let me ouut

Glugy ::

feryz je izjavil:

A vi preverite kalkulator, če vam prav izračuna?
Predvidevam da ja. Oz. vsaj od prihoda ai dalje, bi ga morali.
Ker je lahko prav, lahko pa si kalkulator rezultat preprosto izmisli. Ok, če ima oznako ai, drugače se jim načeloma še lahko zaupa.


Kalkulator deluje po principu v naprej sprejetih pravil s katerimi se vsi strinjamo. Pri Umetni inteligenci pa gre za uteži ki jih lahko nastaviš poljubno, dejansko ne deluje po pravilih ki bi bila standardizirana.

Ne morš standardiziranega orodja primerjat z nestandardiziranim. To je tko k da bi primerjal strokovno literaturo z pravljico. Odvetnik je pa ja menda dovolj inteligenten da loči med obojim!!! Ni problem da ne ve problem je da je LEN. Sam pač če bi priznal da je len namesto da je neveden bi fasal hujšo kazen.

Zgodovina sprememb…

  • spremenilo: Glugy ()

m0LN4r ::

Torej je cas, da nekdo naredi AI, ki preveri svoj output $$$
https://ref.trade.re/38mvdvxm
Trade Republic 38MVDVXM

feryz ::

Ok, vidim da je to nova normala, splošno sprejeta med ljudi.
Programom torej ne bo več za zaupati, ampak bomo morali vsako zadevo nekako ročno preverjati za njimi. Ker tako pač je. Bo tudi v euli napisano, da bodo ljudje to vedeli.
Zdaj naj gugl brž implementira ai vsaj v iskalnik in gugl maps. Da ta dva "izboljša.
Kaj lepšega kot da se pelješ par 100 km v napačno stran? Sicer vedno ročno preveriš ai rezultate, ampak glih tokrat jih pa nisi.

Markoff ::

gruntfürmich je izjavil:

od sedaj naprej verjamem samo nakladačem na slo-techu 8-)

Nakladači so NI - naravna/natural inteligenca. Ali pa le vitezi, ki govorijo "NI!".
Antifašizem je danes poslednje pribežališče ničvredneža, je ideologija ničesar
in neizprosen boj proti neobstoječemu sovražniku - v zameno za državni denar
in neprofitno najemno stanovanje v središču Ljubljane. -- Tomaž Štih, 2021