Slo-Tech - Pred dvema letoma smo pisalo o odmevnem primeru v ZDA, ko je odvetnik sodišču predložil dokumente, ki so se sklicevali na neobstoječe primere. Izkazalo se je, da si jih je izmislila umetna inteligenca, ki jo je odvetnik nespretno uporabil. Tedaj jo je odnesel s 5000 dolarjev kazni, opravičilom in obljubo, da tega ne bo več počel. A to ni bil osamljeni primer, se je izkazalo.
V ZDA so odvetniki večkrat uporabili umetno inteligenco in pri tem navajali fantomske primere. Sodišča so do teh izpadov čedalje manj prizanesljiva, ker je nezanesljivost umetne inteligence že splošno znana in bi moral vsak odvetnik preveriti njene izdelke, zlasti reference. Rafael Ramirez, ki je zastopal podjetje HoosierVac, je oktobra lani na primer v enem izmed zahtevkov citiral neobstoječi primer, kar je sodnik hitro ugotovil. Kasneje so pregledali še njegove ostale vloge in ugotovili, da je tudi v vsaj dveh drugih primerih storil enak. Sodišče ni bilo zadovoljno z njegovim pojasnilom, da uporablja umetno inteligenco kot pomoč in da ni vedel, da lahko halucinira. Zatrdil je, da se bo izobrazil o njenem delovanju, a mu je sodnik vseeno prisodil 15.000 dolarjev kazni. Ob tem sodišče dodaja, da umetna inteligenca ni a priori slaba ali neuporabna. Gre za orodje, ki pa ga je treba znati uporabljati. Odvetnik ni pokazal niti najmanjše stopnje skrbnosti, saj bi moral citirane primere preveriti, česar ga uporaba umetne inteligence ne odvezuje. In bil je kaznovan.
V nekem drugem primeru januarja letos se je zgodilo popolnoma enako. Drugi odvetniki so se sklicevali na primere, ki jih sodišče ni našlo. Sodišče je zahtevalo pojasnila, odvetniki pa so dejali, da so uporabili generativno umetno inteligenco. Sodišče jim je minuli teden izreklo od 1000 do 3000 dolarjev globe, enemu pa so preklicali začasno licenco v zvezni državi, kjer nima polne licence.
Novice » Ostale najave » Odvetniki zaradi umetne inteligence čedalje pogosteje citirajo izmišljene primere

Netrunner ::
Marsikje uporabljajo AI, da pohitrijo delo, da lahko več naredijo in več zaslužijo. Pravilnost informacij ni prioriteta. Prevajalci npr. ne prevajajo več ampak uporabijo ai in samo enkrat preberejo skozi če je kakšna velika napaka. Na tak način naredijo dosti več prevodov, računajo pa enako kot so prej :) Marsikje ni s takim pristopom nič narobe, saj aI je orodje vendar tam kjer se igrajo z usodo ljudi pa bi bilo lepo od njih da 2x preverijo če že ne rabijo pisat.
Drugače pa, pri odvetnikih je umetna inteligenca nujno potrebna saj naravne inteligence je bolj malo.
Drugače pa, pri odvetnikih je umetna inteligenca nujno potrebna saj naravne inteligence je bolj malo.
Doing nothing is very hard to do... you never know when you're finished.

feryz ::
Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.

Seljak ::
Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.
Podaj en praktičen primer iz tvojega življenja z dokazilom, da lahko utemeljiš zapisano.

Glugy ::
Mislm sej ni problem uporab umetno inteligenco. Sam dej vsaj prever kaj izpljune pa če primeri na katere se sklicuje obstajajo. Ne bit len!

feryz ::
A vi preverite kalkulator, če vam prav izračuna?
Predvidevam da ja. Oz. vsaj od prihoda ai dalje, bi ga morali.
Ker je lahko prav, lahko pa si kalkulator rezultat preprosto izmisli. Ok, če ima oznako ai, drugače se jim načeloma še lahko zaupa.
Predvidevam da ja. Oz. vsaj od prihoda ai dalje, bi ga morali.
Ker je lahko prav, lahko pa si kalkulator rezultat preprosto izmisli. Ok, če ima oznako ai, drugače se jim načeloma še lahko zaupa.

Utk ::
Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.
Klasična praksa, da ljudje uporabljajo stvari, ki jih ne razumejo. Kot "vsi" vejo, da statistika laže. Ne laže, samo uporabljat jo ljudje ne znajo.
Generativna umetna inteligenca dela točno to kar obljublja ime. Generira. Imaš tudi "inteligence", ki niso tako inteligentne, in pač iščejo (sicer lahko zelo pametno) po hardcore podatkih. Samo to ni tako kul, ker ti pač ne bo napisal eseja iz nečesa, ampak ga boš moral kar sam. Komot bi odvetnik uporabil pametno iskanje, našel te primere, in potem AI ukazal da napiše nek povzetek točno tega. Tu se (najbrž) ne bi kaj dost izmislila.
Zgodovina sprememb…
- spremenil: Utk ()

Grimnir3 ::
Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.
AI modeli ala chatgps so statistika.
Sej veš, laž, velika laž, statistika


karafeka ::
Tule sedaj napadate ai. To je samo neko orodje. Odvetniki oz. celo sodstvo so tu glavni krivci, ki z minimalno dela obirajo ljudi. Ko bi vedeli koliko napačnih obsodb je bilo zaradi tega. Tisti ki pa so dejansko krivi, pa podmažejo cel sodni aparat in so prosti.

bm1973 ::
Ah, so se že pokazale slabosti AI.
Ljudje jim brezglavo zaupajo in ne znajo preveriti rezultatov.
Videno tudi tukaj na Slo-Tech...
Ljudje jim brezglavo zaupajo in ne znajo preveriti rezultatov.
Videno tudi tukaj na Slo-Tech...

feryz ::
Dobro da ai goljufa ali si izmišlja/generira samo pri odvetniških zadevah.
Tisti, ki jo uporabljajo za pomoč pri programiranju, lahko mirno spijo. Tam je vse tipi topi.
Tisti, ki jo uporabljajo za pomoč pri programiranju, lahko mirno spijo. Tam je vse tipi topi.

fikus_ ::
Sem že večkrat pisal, da je AI lahko zelo v pomoč in daje prednost tistemu, ki jo zna uporabljati. In v zgoraj opisanih primerih je bila v "pomoč", uporabnik je pa ne zna uporabljati, ni preveril stvari, ki so enostavno preverljive.
Učite se iz preteklosti, živite v sedanjosti in razmišljajte o prihodnosti.

bosmla ::
Problem je v ljudeh oz. "amorfni masi", ker smo ze stoletja trenirani da ubogamo oz. verjamemo avtoriteti. Lepo se je pokazalo tudi ze s pojavom socialnih omrezij - ker to predstavlja voljo visje avtoritete, kot recimo prej skoraj izkljucno drzavni (cerkveni) govorci/mediji, jim ljudje nauceno verjamejo...
Seveda to kvarno vpliva na vedenje splosne populacije. Seveda pa ni nujno slabo ali dobro, povzroca pa nemir na podrocju upravljanja z "amorfno maso".
Seveda to kvarno vpliva na vedenje splosne populacije. Seveda pa ni nujno slabo ali dobro, povzroca pa nemir na podrocju upravljanja z "amorfno maso".

Groot ::
Tule sedaj napadate ai. To je samo neko orodje. Odvetniki oz. celo sodstvo so tu glavni krivci, ki z minimalno dela obirajo ljudi. Ko bi vedeli koliko napačnih obsodb je bilo zaradi tega. Tisti ki pa so dejansko krivi, pa podmažejo cel sodni aparat in so prosti.
No daj junak, pokaži mi te napačne obsodbe. Glede na tvojo glasnost jih boš najbrž najmanj 100 lahko takoj stresel iz rokava. Pa ne mi sedaj z ameriškimi bedarijami, kar če verjameš ali ne, tam ne odločajo pravniki, ampak enako šank nakladači kot si sam. Potem pa pride sistem v situacije, ko so posamezniki neupravičeno obsojeni.

starfotr ::
Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.
Saj ti se tudi zlažeš. To laž lahko nato AI uporabi za svoj model in in ko ga uporabiš dobiš isto, kot da vržeš drek v ventilator.

Utk ::
Problem je v ljudeh oz. "amorfni masi", ker smo ze stoletja trenirani da ubogamo oz. verjamemo avtoriteti.
Ni nujno da ravno avtoriteti. V bistvu komerkoli, glavno je da se preloži odgovornost na nekoga drugega.
Koliko računovodij še zna izračunat plačilno listo v nulo na roke s kalkulatorjem iz 80ih? Če gre napačna plačilna lista ven, je "kriv" program. Ne po zakonu, ampak po logiki ljudi.
V javni upravi je pa kup primerov ko si prelagajo odgovornost od enega do drugega.
Zgodovina sprememb…
- spremenil: Utk ()

Ales ::
Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.
Saj ti se tudi zlažeš. To laž lahko nato AI uporabi za svoj model in in ko ga uporabiš dobiš isto, kot da vržeš drek v ventilator.
"Halucinacije" AI modelov ne izhajajo iz tega, da bi bili vhodni podatki AI modela napačni.
Vhodni podatki so lahko vsi točni in AI algoritem dela pravilno (!), izhodni rezultat pa lahko pride ven popolnoma ali delno neresničen.
To dejstvo ljudem na splošno ni jasno. Ne dojemate tega.
Zgodovina sprememb…
- spremenil: Ales ()

Magic1 ::
AI je super, samo je potrebno kar nekaj znanja in poznavanja samega delovanja, da je zadeva uporabna. Vsak klepec zna vprašat in dobit odgovor, ocenit kaj je res in kaj ne, je pa čist druga štorija. Ai se uči iz vsega, tudi iz fikcije. Doskrat povedana laž je resnica za AI.
Magic

Irbis ::
Me je pa zadnjič prijetno presenetil DeepSeek, ko sem mu rekel, naj mi napiše znanstveni članek na neko temo. Na koncu je pri literaturi lepo napisal:
Literatura (izmišljena za primer)
In res, znani avtorji s tega področja, naslovi so se brali kot nekaj, kar bi res lahko napisali, ampak nobeden od teh člankov v resnici ni obstajal.
Ampak me je pa vsaj izrecno opozoril na to.
Literatura (izmišljena za primer)
In res, znani avtorji s tega področja, naslovi so se brali kot nekaj, kar bi res lahko napisali, ampak nobeden od teh člankov v resnici ni obstajal.
Ampak me je pa vsaj izrecno opozoril na to.

Magic1 ::
In tega bo sedaj na potenco več na spletu in nadgrajeni modeli se bodo učili tudi iz teh smeti. Še bolj me pa skrbi, da bo zdaj lahko vsak znanstvenik in oddajal članke, ki jih bo AI spisal. Nekdo se bo samo malo potrudil, da bo naredil take spremembe, da ne bo BS viden iz aviona.
Magic
Zgodovina sprememb…
- spremenil: Magic1 ()

Bezukhoff ::
At its most basic, machine learning uses programmed algorithms that receive and analyse input data to predict output values within an acceptable range. As new data is fed to these algorithms, they learn and optimise their operations to improve performance, developing 'intelligence' over time.
Aleš, to je sicer res, napisan algoritem resda lahko deluje as instructed, problem pa je, in to so, kot se mi zdi, izpostavili različni strokovnjaki iz tega področja, da se jim načeloma ne sanja kaj se potem dogaja znotraj tega kar AI "halucinira", še človeški um nam je v precejšnjem obsegu nedoumljiv, UI, pa čeprav le skupek kode, ostaja enaka neznanka.
Aleš, to je sicer res, napisan algoritem resda lahko deluje as instructed, problem pa je, in to so, kot se mi zdi, izpostavili različni strokovnjaki iz tega področja, da se jim načeloma ne sanja kaj se potem dogaja znotraj tega kar AI "halucinira", še človeški um nam je v precejšnjem obsegu nedoumljiv, UI, pa čeprav le skupek kode, ostaja enaka neznanka.

jan_g ::
Klasična it-jevska praksa, predvsem softverska, lahko pa tudi hardverska.
Na trg dajo nek polizdelek, ki na pol deluje, ali še to ne, zraven pa pripnejo neko glupo eulo, ki jih, kao, odvezuje vsake odgovornosti. Kupci naj se pa jebejo.
Nekako bi človek razumel, da "ai" da odgovor, da ne ve, ali da ne najde zahtevanega.
Da se pa mrtvo hladno zlaže ali izmisli, pa človek preprosto ne more razumeti. It do sedaj ni bila taka, bila je popolnoma eksaktna, ena ali nula.
S prihodom teh "AI" pa so vse pojebali in podrli zaupanje v it vedo kot tako.
V bistvu jih je potrebno tudi tega naučiti, saj ta koncept ni samo posebi umeven. Torej jim dati podatke, dokumente o tem, kdaj naj odgovori z "Ne vem". To pride na vrsto ponavadi na drugi stopnji učenja, ko je osnovni model že narejen. Množica vsega znanja je jasno prevelika, da bi s to metodo izkoreninili vse halucinacije. Za primere, kjer tega ni naučen in bi torej odgovor "Ne vem" imel največjo verjetnost, bo model pač odgovoril z nečim drugim, kar bo po verjetnosti najvišje.
Drugače pa ima tudi uporabnik možnost, da preveri točnost podatkov: chatu rečeš, naj uporabi iskanje in povzame najdene informacije (torej, pogugla namesto tebe). Se mi zdi skoraj nujno, da bi nekdo v poziciji odvetnika uporabil to možnost za preverjanje referenc. Ne vem, če ima to že v free verziji ali ne, ampak nek odvetnik bo že izpljunil tistih 20 dolarjev na mesec, da bo imel vse na razpolago.

Ales ::
V bistvu jih je potrebno tudi tega naučiti, saj ta koncept ni samo posebi umeven. Torej jim dati podatke, dokumente o tem, kdaj naj odgovori z "Ne vem". To pride na vrsto ponavadi na drugi stopnji učenja, ko je osnovni model že narejen. Množica vsega znanja je jasno prevelika, da bi s to metodo izkoreninili vse halucinacije. Za primere, kjer tega ni naučen in bi torej odgovor "Ne vem" imel največjo verjetnost, bo model pač odgovoril z nečim drugim, kar bo po verjetnosti najvišje.
Skratka, pravilno ugotavljaš, da AI model sam po sebi ni sposoben presoditi, kdaj kaj "ve" in kdaj "ne ve".
Drugače pa ima tudi uporabnik možnost, da preveri točnost podatkov: chatu rečeš, naj uporabi iskanje in povzame najdene informacije (torej, pogugla namesto tebe).
To ni preverjanje referenc. To je zgolj ponovna uporaba potencialno lažnivega "AI" modela.
Se mi zdi skoraj nujno, da bi nekdo v poziciji odvetnika uporabil to možnost za preverjanje referenc. Ne vem, če ima to že v free verziji ali ne, ampak nek odvetnik bo že izpljunil tistih 20 dolarjev na mesec, da bo imel vse na razpolago.
Na žalost zna biti, da bodo ljudje res to počeli in pri tem zmotno mislili, da preverjajo vire.