» »

Evropski parlament se je načeloma dogovoril o vsebini zakona o umetni inteligenci

Evropski parlament se je načeloma dogovoril o vsebini zakona o umetni inteligenci

Reuters - Evropski poslanci so se na zasedanju v četrtek dogovorili o kompromisnem predlogu novega zakona o umetni inteligenci (AI Act), ki ga pripravlja Evropska komisija. O besedilu osnutka so se dogovorili poročevalci, naslednji korak pa bo glasovanje na pristojnem odboru 11. maja. Če bo predlog dobil podporo, bi ga lahko parlament na plenarni seji potrdil že junija, nato pa bo sledilo še dogovarjanje s Svetom, torej predstavniki držav članic.

V Evropski komisiji si za oblikovanje in sprejem zakona o umetni inteligenci prizadevajo že od leta 2020. Aprila 2021 so predstavili prvi osnutek, do danes pa je doživel še nekaj predelav. Gre za prvo in najbolj obsežno regulacijo umetne inteligence na svetu, ki bo uvedla številne varovalke in transparentnost pri razvoju in uporabi. Od začetka postopka do danes so vzniknili še veliki jezikovni modeli, kakršen je ChatGPT, in generativna umetna inteligenca na drugih področjih, denimo Midjourney za ustvarjanje slik. Najnovejši popravki osnutka zakonodaje opredeljujejo tudi te. Njihova uporaba ne bo prepovedana, bodo pa na primer morali razkrili, katero avtorsko zaščiteno vsebino so uporabljali za trening modelov. Na mizi je bil tudi predlog o popolni prepovedi uporabo avtorsko zaščitene vsebine za trening, a je na koncu obveljala kompromisna različica z obvezno navedbo. Prav tako zakonodaja predvideva preizkušanje in obvladovanje tveganj za zdravje, varnost, okolje, temeljne pravice, demokracijo in vladavino prava, ki bi jih lahko predstavljala uporaba umetne inteligence.

Umetna inteligenca bo razdeljena na več kategorij glede na tveganje: minimalno, omejeno, visoko in nesprejemljivo. Za prvi skupini večjih omejitev ne bo: sem sodijo na primer filtri za spam in umetna pamet v igrah. Po drugi strani pa nesprejemljivo tveganje predstavljajo sistemi, ki bi na primer določali, kdo je upravičen do socialne pomoči ali ki bi odmerjali kazni na sodiščih. Ti bodo prepovedani. Vmes je območje umetne inteligence z visokim tveganjem, ki se bo smela uporabljati, a nadzorovano in z varovalkami.

36 komentarjev

flyer92 ::

So zavohali še eno priložnost za še eno prepoved...

#000000 ::

Načeloma so se dogovorili, da se bodo še naprej dogovarjali o načelnem dogovoru, samo še časovnico rabijo in evo Slovenske vlade, način je že podoben.

mr_chai ::

Še dobro, da imamo mi slovenci, same strokovnjake za AI med evroposranci.

dexterboy ::

Po drugi strani pa nesprejemljivo tveganje predstavljajo sistemi, ki bi na primer določali, kdo je upravičen do socialne pomoči ali ki bi odmerjali kazni na sodiščih. Ti bodo prepovedani. Če dopustimo AI, da je v vlogi sodnika, se lahko vprašamo, kakšen smisel sploh imajo naša življenja....
Dodatek;
kapo dol Mateju za vse novičke v teh prazničnih dneh ;)
Ko ne gre več, ko se ustavi, RESET Vas spet v ritem spravi.

Zgodovina sprememb…

glomp!Gomp1 ::

flyer92 je izjavil:

So zavohali še eno priložnost za še eno prepoved...

Ne, industrija je zavohala še eno priložnost za zlorabo državljanov EU in EU parlament vnaša korekcijo.

Lonsarg ::

Se strinjam da bi odločevalni del komot bil AI tudi kar se državnih in sodniških in podobnih funkcij tiče. Samo "executing" del je treba pazit da je decouplan in da gre skozi human review.

Zgodovina sprememb…

  • spremenil: Lonsarg ()

route ::

Meni se zdi to podobno, kot če bi EU sprejemala posebne, svoje zakone fizike, ki bi potem bili obvezni za vse na območju EU. In bi bili pač drugačni od fizikalnih zakonov kje drugje, recimo drugačni od zakonov v ZDA ali na Kitajskem..

No, saj na nek način imamo človeštvo takšnih bedastoč cele kupe: premikanja ur, meter, cola, kvadratni čevlji, Fahrenheiti in Celzij, vožnja po levi, pa po desni.. kakor se kakemu lokalnemu debilu pač nekje zdi, bi on določal neka lokalna pravila oz. kar zakone.. rezultat je pa planetarna zmešnjava.

AI je po moje intergalaktični vesoljski pojav, ne morejo biti zanj v Zgornjem Kašlju drugačna pravila, kot so v Spodnjem Kašlju, zgolj zato, ker bi neki lokalni fič firiči želeli biti POMEMBNI im morajo pristaviti svoj debilni piskrček..

AI se še ni niti dobro rodil, že bi mu prepovedali vse živo, v imenu namišljenih nevarnosti..

Učiti se s pomočjo avtorskih del - ali se ne dogaja prav to prav vsak dan v prav vsakem vrtcu, šoli, fakulteti? Ali ni prav vsak učbenik avtorsko delo?

Naj mi nekdo našteje, v katerem avtorskem delu, iz katerega se je v šolah učil, se je naučil uporabe števila PI?

Zgleda smo res že tako globoko zabredli, da bodo bedaki predpisovali algoritmom, kaj lahko računajo in česa naj ne..

glomp!Gomp1 ::

route je izjavil:

Meni se zdi to podobno, kot če bi EU sprejemala posebne, svoje zakone fizike, ki bi potem bili obvezni za vse na območju EU. In bi bili pač drugačni od fizikalnih zakonov kje drugje, recimo drugačni od zakonov v ZDA ali na Kitajskem..


Seveda se ti zdi podobno, ker nimaš blage o pomembnih detajlih, kot recimo da je EU 500 miljonski trg, na katerem se morajo tuja podjetja držati EU zakonov o gravitaciji, sicer so lahko iz trga izločena, ker pa je zraven letni BDP 24 triljonov evrov (zdaj malo manj, zaradi norega podpiranja ZDA z nesmiselnimi ukrepi proti Rusiji) gre za takšno priložnost za zaslužek, da se tem zakonom podredijo tudi razni Appli, Samsungi, Googli, Microsofti, itd.

Skratka, fino je, če veš kaj blebetaš, preden začneš blebetati. In glede na to, da si slep zagovornik AIja, se tudi pričakuje od tebe, da nimaš blage veze kaj blebetaš. To te definira, lepljenje krhke samozavesti na tehnologijo, ki je ne razumeš, nato pa neskončno zagovarjanje tega. Smo videli podobne fenomene že pri blockchainih, teslah,... skratka ne več "vonj časa" ampak "smrad časa".

Zgodovina sprememb…

Lonsarg ::

@route, meni zgleda kot da novice nisi prebral, edino kar so sprejeli glede avtorstva je, da mora algoritem razkriti na katerih podatkih se je učil.

Skratka sprejeli so zelo mehko regulacijo, tak da je tvoje pisanje zelo smešno.

MrStein ::

dexterboy je izjavil:

Po drugi strani pa nesprejemljivo tveganje predstavljajo sistemi, ki bi na primer določali, kdo je upravičen do socialne pomoči ali ki bi odmerjali kazni na sodiščih. Ti bodo prepovedani.

Ja, bolje da odloča nezainteresirani socialni delavec ali podkupljivi policaj.


Pa najbolje prepovedati enkripcijo, da lahko kaki birokrat preveri ali so naša sporočila OK.
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

darkolord ::

Ja, bolje.

Se ne bi čudil, če kakšen sodnik že uporablja ChatGPT za pisanje sodb, ker jim tipkanje tega pobere še največ časa. Ne glede na to, da je jezikovni model - važno, da se lepo bere. Čim več "špeha" je, bolj je sodba trdna.

Če se pritožiš, pa zaenkrat nikomur nič ne preprečuje, da višji sodnik ne bi naredil čisto isto in tvojo pritožbo enostavno vtaknil v ChatGPT.

In prideš enostavno do tega, da nek jezikovni model odloča o usodi ljudi, brez kakršnih koli varovalk.

Zgodovina sprememb…

  • spremenilo: darkolord ()

Lonsarg ::

To da nekdo prebere in na svojo odgovornost avtorizira je čisto solidna varovalka. Važno je kdo je končni odločevalec ne kdo je generator izvidov/sodb/zakonov.

In ta Evropska regulacija govori o tem da končni odločevalec ne sme biti AI, povsem dovolj nobenega dodatnega kompliciranja ni potrebnega.

Zgodovina sprememb…

  • spremenil: Lonsarg ()

MrStein ::

Končni odločevalec je ponavadi ESČP.
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

Glugy ::

"Njihova uporaba ne bo prepovedana, bodo pa na primer morali razkrili, katero avtorsko zaščiteno vsebino so uporabljali za trening modelov"

Zakaj pol umetnikom naravne inteligence ni treba tega razkrit? A ko človk dobi navdih od drugih je v redu ko pa umetna inteligenca pa ni? zakaj že?
( no sej vem zakaj, zato da poberejo keš od razvijalcev umetne inteligence tko mal zarad lepšga. )

darkolord ::

Lonsarg je izjavil:

To da nekdo prebere in na svojo odgovornost avtorizira je čisto solidna varovalka.


Odgovornost sodnikov se lahko ugotavlja le znotraj postavljenih omejitev instituta sodniške imunitete, ki je urejen v 134. členu Ustave RS. S tem členom je določena imuniteta sodnikov kot ena izmed prvin neodvisnosti sodstva oziroma sodnikov, kot to izhaja iz 125. člena Ustave. Imuniteta sodnikov predstavlja prepoved, da niti sodnika, niti sodnika porotnika ni možno klicati na odgovornost za mnenje, ki ga je dal pri odločanju na sodišču, kar je določeno prvem odstavku omenjenega člena, in predstavlja t. i. materialno imuniteto.


MrStein je izjavil:

Končni odločevalec je ponavadi ESČP.
Ki ima prav tako enake pomanjkljivosti glede varovalk.

MrStein ::

Saj.

AI gor ali dol.
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!

darkolord ::

Če vsi uporabljajo isti AI, lahko vse stopnje nad prvo kar ukineš.

Sedaj tudi če je vmes nekaj idiotov, je še vedno velika verjetnost, da vsaj nekdo izmed njih ne bo.

Zgodovina sprememb…

  • spremenilo: darkolord ()

joze67 ::

mr_chai je izjavil:

Še dobro, da imamo mi slovenci, same strokovnjake za AI med evroposranci.
(Evro)poslanci so običajno strokovnjaki za prodajanje megle (in nabiranje denarja). Upati je, da imajo v svojih ekipah (stalnih ali priložnostnih) strokovnjake iz področja, ki se obravnava. Če je kadarkoli poslanec v resnici kolikor toliko strokovnjaka na podorčju, je naključje, in (€)poslancev se ne izbira po tem ključu.
Končna odločitev je seveda vedno politična.

Mato989 ::

Po drugi strani pa nesprejemljivo tveganje predstavljajo sistemi, ki bi na primer določali, kdo je upravičen do socialne pomoči ali ki bi odmerjali kazni na sodiščih. Ti bodo prepovedani. Če dopustimo AI, da je v vlogi sodnika, se lahko vprašamo, kakšen smisel sploh imajo naša življenja....


Še en debilizem... kot da smo ljudje nezmotljivi AI pa z cold information postane zmotljiv... bullshit, na tak način samo mešamo meglo...
Če sem pomagal, se priporočam za uporabo linka!
KUCOIN EXCHANGE link: https://www.kucoin.com/#/?r=E3I9Ij
BINANCE EXCHANGE link: https://www.binance.com/?ref=10161115

joze67 ::

Mato989 je izjavil:

Še en debilizem... kot da smo ljudje nezmotljivi AI pa z cold information postane zmotljiv... bullshit, na tak način samo mešamo meglo...
Komentar, vreden avtorja.

Odločanje ni enoznačno in determinirano. Ne navsezadnje imaš pri veliko postopkih možnost, da dovolj visoko v hierarhiji sedeči posameznik povleče drugačno odločitev - ker predosdi, da so okoliščine tako izjemne, da jih pravila niso zajela ali pokrila.

Ne navsezadnje je bila ena velika pridobitev ameriške neodvisnosti možnost, da ti sodi porota tebi enakih. Zakaj sedaj nazaj v (nerazsvetljeni) absolutizem?

Mato989 ::

joze67 je izjavil:

Mato989 je izjavil:

Še en debilizem... kot da smo ljudje nezmotljivi AI pa z cold information postane zmotljiv... bullshit, na tak način samo mešamo meglo...
Komentar, vreden avtorja.

Odločanje ni enoznačno in determinirano. Ne navsezadnje imaš pri veliko postopkih možnost, da dovolj visoko v hierarhiji sedeči posameznik povleče drugačno odločitev - ker predosdi, da so okoliščine tako izjemne, da jih pravila niso zajela ali pokrila.

Ne navsezadnje je bila ena velika pridobitev ameriške neodvisnosti možnost, da ti sodi porota tebi enakih. Zakaj sedaj nazaj v (nerazsvetljeni) absolutizem?



Poglej... nihče ne pravi da ne sme reviewat odločitve nek človek... ampak zakaj bi oteževali? Bistvo je da če je cenzus 864,36EUR lahko to odloči AI to so merljive zadeve.
Če sem pomagal, se priporočam za uporabo linka!
KUCOIN EXCHANGE link: https://www.kucoin.com/#/?r=E3I9Ij
BINANCE EXCHANGE link: https://www.binance.com/?ref=10161115

Lonsarg ::

darkolord je izjavil:

Lonsarg je izjavil:

To da nekdo prebere in na svojo odgovornost avtorizira je čisto solidna varovalka.


Odgovornost sodnikov se lahko ugotavlja le znotraj postavljenih omejitev instituta sodniške imunitete, ki je urejen v 134. členu Ustave RS. S tem členom je določena imuniteta sodnikov kot ena izmed prvin neodvisnosti sodstva oziroma sodnikov, kot to izhaja iz 125. člena Ustave. Imuniteta sodnikov predstavlja prepoved, da niti sodnika, niti sodnika porotnika ni možno klicati na odgovornost za mnenje, ki ga je dal pri odločanju na sodišču, kar je določeno prvem odstavku omenjenega člena, in predstavlja t. i. materialno imuniteto.


MrStein je izjavil:

Končni odločevalec je ponavadi ESČP.
Ki ima prav tako enake pomanjkljivosti glede varovalk.


Mešaš dve ločeni temi. To koliko in kako so sodniki odgovorni ali pa neodgovorni ne spremeni dejstva da če AI ni končni odločevalec, potem pač ni končni odločevalec in odgovornost ni na algoritmu. Debata o odgovornosti sodnika je svoja stvar in ni odvisna od tega kako dobra orodja al pa pomočnike ima sodnik. Če se sodnik odloči kot mu svetuje najstniski sin ali pa kot mu ChatGPT, njegova stvar.

Pa beseda odgovornost v mojem kontekstu je seveda širšega pomena, ne zgolj ozka pravna odgovornost.

Zgodovina sprememb…

  • spremenil: Lonsarg ()

darkolord ::

Ni tako enostavno.

Če je "končni odločevalec" nekdo vmes, ki bo pač vedno kliknil "Approve" na karkoli mu AI izpljune, s tem efektivno ni več varovalke. Po tvoje je to pač "njegova stvar", who cares.

Trenutno je neka varovalka pred tem, da sodniku svetuje najstniški sin to, da sodnik na naslednji stopnji gotovo ne bo imel tega istega sina. Za AI tega nimaš.

Sicer pa, ne vem kakšno odgvornost misliš poleg "zgolj ozke pravne odgovornosti"? Moralna odgovornost "končnih odločevalcev", ki bodo sladko spali, ko bodo svoje delo opravili s 95% manj dela?

Zgodovina sprememb…

Lonsarg ::

Ja imajo bolj ali manj le moralno odgovornost, taka je pač ustava. So odgovorni sicer tudi za ugled tako sebe kot celotne veje oblasti, zato jih lahko sodniški kolegi neformalno vseeno kaznujejo (manj napredovanj na višje pozicije itd.) Ampak spet to je ločena tema o sodni veji oblasti.

AI je široka stvar, lahko je 500 različnih sodniških algoritmov z vsak po 500 parametrih in so potencialno odločitve bolj raznovrstne kot človeške -> če se pač odločijo sodniki na ta način uporabit. Škarje in platno imajo v svojih rokah, tako z kot brez AI. Lenobo lahko izberejo že sedaj z preisovanjem drugih odločitev, ni AI tisti zaradi katerega bi se ta issue pojavil, issue da zaradi lenobe sodniki slabše sodijo že obstaja. Pravzaprav pa bi dober AI algoritem ta problem zmanjšal, ker bo sčasoma vsekakor sodil bolje kot sodniki.

Sicer pa ko bo AI dovolj dober bi jaz definitivno tudi končno odločevanje dal sčasoma AI algoritmu, vse razen najvišje sodniške instance, kjer bi ljudje lahko algoritem vprašali zakaj je tako sodil in v primeru da se odločijo da ni ok spremenijo algoritem/zakon, da bo po novem sodil drugače. In tako tudi bo, to je zgolj vprašanje časa.

Zgodovina sprememb…

  • spremenil: Lonsarg ()

darkolord ::

ni AI tisti zaradi katerega bi se ta issue pojavil, issue da zaradi lenobe sodniki slabše sodijo že obstaja.
Ne, lenoba je bila res že od vekomaj. Tudi AI je že kar dolgo. Ampak AI v zadnji obliki - kot npr. ChatGPT - je resnično game changer glede potenciranja tega issue-a.

Dostopen je literally vsakomur, za uporabo ne rabiš nobenega tehničnega znanja, rezultati že brez korekcije dosežejo za marsikatero področje na videz sprejemljiv nivo.

Sicer pa ko bo AI dovolj dober bi jaz definitivno tudi končno odločevanje dal sčasoma AI algoritmu, vse razen najvišje sodniške instance, kjer bi ljudje lahko algoritem vprašali zakaj je tako sodil in v primeru da se odločijo da ni ok spremenijo algoritem/zakon, da bo po novem sodil drugače.
Pogost misconception, kako AI deluje. To ni klasičen program, ki deluje kot skupek nekih pravil, ki jih lahko preverjaš. Enostavno ne vemo, kako točno oz. zakaj je AI prišel do tega rezultata. V nekem milijardodimenzijskem prostoru je "Janez Novak" bližje besedni zvezi "je kriv" kot "ni kriv".

Govoriš o "dobrem AI algoritmu", pa verjetno ne moreš niti definirati, kaj to pomeni.

Konkretno je problem ravno ChatGPT - in njegova konkurenca, torej jezkovni modeli - ker ne vsebujejo NOBENIH specifičnih strokovnih algoritmov, rezultati so pa kljub temu izredno prepričljivi.

To, da lahko AI ogromno nalog izpolnjuje bolje kot človek, se čisto strinjam. Ampak ne jezikovni model, ki izpade suvereno na praktično kateremkoli področju.

Zgodovina sprememb…

Lonsarg ::

Logično da bo za sodniško uporabo razvit prilagojen AI in ne bo uporabljal nek generični ChatGPT. Sodniške verzije ali plugini bodo znali zraven generirane sodbe povedat katere zakone in v kateri prioriteti so uporabili za spisat sodbo. "sprememba algoritma da bo drugače sodil" bo tako v večini primerih pravzaprav zgolj sprememba zakona oziroma dodatnih pravil za interpretacijo zakonov.

Bing uporablja recimo prilagojen ChatGPT ki precej drugače odgovorja. Ima tudi nastavitve koliko strikten naj bo, najbolj striktna verzija ima tako zelo malo halucinacij ampak tudi sorazmerno manj ve. Zraven odgovora ti Bing chat še mimogrede pove linke za source od kje informacije (virov je seveda več ker algoritem združuje in korelira, pove ti pač taglavne ki so imeli največjo težo).

Skratka vse tvoje predpostavke o problemih AI se zanašajo na en specifični AI, ChatGPT, bo jih pa na tisoče in bodo prilagojeni. In s tem tudi tvoji izpostavljeni problemi odpadejo. ChatGPT zna sodniku zgolj malo blasta dodat in obdelat, pa še to ne kvalitetno, za jedro sodbe je še neuporaben. In ne ko govorim o konkurenci ChatGPT ne govorim zgolj o jezikovnih modelih, ampak nasploh o vseh AI, katerih le en del bodo jezikovni modeli. Namreč zgolj jezikovni modeli imajo precej omejeno uporabno vrednost, za sodnijo ne morejo kaj veliko pomagat.

Tudi to kar mi uporabljamo kot ChatGPT je zraven PRECEJ ročno spisanega softwerja in algoritmov, ki potem v ozadju kliče in parsa njihov jezikovni model.

Zgodovina sprememb…

  • spremenil: Lonsarg ()

m0LN4r ::

Po drugi strani pa nesprejemljivo tveganje predstavljajo sistemi, ki bi na primer določali, kdo je upravičen do socialne pomoči ali ki bi odmerjali kazni na sodiščih. Ti bodo prepovedani.
Pa ravno tukaj bi trebalo narediti red nekega dne, da ni vse prosto po presernu.

https://www.youtube.com/user/m0LN4r

Zgodovina sprememb…

  • spremenil: m0LN4r ()

Unilseptij ::

Še ena zamujena priložnost, da bi zakonodajo na tem področju uredili kot je treba. Tukaj se vidi, da ne samo politiki, ki zakone sprejemajo, ampak niti pripavljalci (večinoma pravniki) ne vedo, kaj pravzaprav želijo z AI-jem. S tem zakonom se že daje AI-ju nekakšno subjektiviteto, kot da dejansko lahko odloča o čemerkoli. Ne razumem, zakaj AI ne bi smel izračunati upravičencev za socialno pomoč, seveda ob ustreznem nadzoru in, to je ključno, s predpostavko, da odgovornost nikoli ne more biti kar na nekem abstraktnem AI-ju, ampak vedno na človeku, ki orodje uporablja.
Predstavljajte si, da bi podoben zakon spisali za lopato... lahko jo uporabljamo za gradnjo stavb in štihanje vrtov, ne pa tudi za kopanje grobov, ker to lahko koga moti. To nima smisla, lopata se uporablja za kopanje česarkoli že, na človeku pa je odgovornost, da je orodje uporabljeno ustrezno in varno.

Mr.B ::

Večina profiliranja kaj delajo uporabniki itd je itak AI, voziš teslo, ja učiš AI avtonomne vožnje itd... To je verjetno zgolj legalizacija obstoječega stanja in neke iztočnice za prihodnost...Večina profiliranja kaj delajo uporabniki itd je itak AI, voziš teslo, ja učiš AI avtonomne vožnje itd... To je verjetno zgolj legalizacija obstoječega stanja in neke iztočnice za prihodnost...
France Rejects Genocide Accusations Against Israel in Gaza,
To accuse the Jewish state of genocide is to cross a moral threshold

darkolord ::

Unilseptij je izjavil:

S tem zakonom se že daje AI-ju nekakšno subjektiviteto, kot da dejansko lahko odloča o čemerkoli. Ne razumem, zakaj AI ne bi smel izračunati upravičencev za socialno pomoč, seveda ob ustreznem nadzoru in, to je ključno, s predpostavko, da odgovornost nikoli ne more biti kar na nekem abstraktnem AI-ju, ampak vedno na človeku, ki orodje uporablja.
Predstavljajte si, da bi podoben zakon spisali za lopato... lahko jo uporabljamo za gradnjo stavb in štihanje vrtov, ne pa tudi za kopanje grobov, ker to lahko koga moti. To nima smisla, lopata se uporablja za kopanje česarkoli že, na človeku pa je odgovornost, da je orodje uporabljeno ustrezno in varno.
Odgovornost človeka tu ni tako enolična in enostavno določljiva. Npr. v avtomobilu z AI je zaenkrat jasno - odogovoren je voznik. Kaj pa če je vse enako, samo da avtomobil nima volana? Kdo je sedaj odgovoren?

Sicer pa lopata ni prava analogija za takšno orodje. Bolj bi bil recimo nek avtonomen robot. Za katerega niti ne veš, kako deluje. Dokler jih je malo, ni nobenega problema. Če ga ima vsak, se znajo problemi nakopičiti hitreje, kot jih utegnemo reševati.

Če bi se lahko zanašali samo na neko (sploh moralno) odgovornost ljudi, večine zakonov sploh ne bi rabili. Ampak zakoni so posledica neštetih idiotov, ki so se na to požvižgali ali mislili, da vedo več.

Glugy ::

"npr. v avtomobilu z AI je zaenkrat jasno - odogovoren je voznik. Kaj pa če je vse enako, samo da avtomobil nima volana? Kdo je sedaj odgovoren?"

AI ima volan ( oziroma se prepove AI brez volana ) čist simpl. In dokler ima AI volan je odgovornost na človeku. AI je ORODJE nič drugega. Vsaj dokler ima če se po tvoje izrazim "volan". In je prav da ima "volan". Dokler gre vse preko človeka je človek odgovoren.

Lonsarg ::

Odgovoren je dokler avto od njega zahteva roko na volanu. Trenutek ko je dovoljeno roke dat stran za dalje postane odgovoren AI.

Podobno pri generiranji teksta pri ChatGPT, dokler ga pregleduje in potrjuje clovek je odgovornost na cloveku.

Skratka nismo se tam, prisli pa bomo do tocke ko bo AI postal odgovoren na dolocenih podrocjih in prav je da se z zakonom doloci na katerih podrocjih ke to dovoljeno, kot je ta EU zakon.

Unilseptij ::

Problem je, da v resnici nikoli ne more kar AI postati odgovoren za nekaj, tako kot lopata ne more biti odgovorna za to, ce si z njo nekomu razcesnil buco. Takoj ko AI-ju priznamo subjektiviteto in "zaupamo" njegovim odlocitvam, ceprav jih ne razumemo, je konec heca in je treba potegniti crto. Jaz ne mislim postati zelenjava, ki jo v rastlinjaku goji nekaksen AI, cigar pameti nihce vec ne more slediti.

Lonsarg ::

Hja tle je zelo odvosno od tega o kakšni AI govorimo. Za take na trenutni stopnji razvoja ni problema, ponudniku/proizvajalcu AI pač obesiš odgovornost za dejanja od AI (pri vožnji z avtomobili je tu čisto lepo izvedljivo)

Malo drugačna pasem pa bo, ko pridemo do singularnosti in AI začne sama sebe izboljševati in postane sama svoj programer. Za take primere pa rabimo containment da se take AI sme zgolj v izolacijskem okolju razvijat (kot pač delamo z virusi).

Zgodovina sprememb…

  • spremenil: Lonsarg ()

m0LN4r ::

Odgovoren bo proizvajalec, ampak megakorporacijo kak miljoncek tu pa tam za kak razbit avto ne bo bolelo.
https://www.youtube.com/user/m0LN4r

tomlin ::

Evropski poslanci in EK naj najprej pošlihtajo svojo inteligenco, ne pa da se bojijo nekih strojev. Res pa je, da verjetno njihov povprečen IQ na dosega niti Digitrona iz 1975, Buje.
Svoboda in enakost ni isto kot svoboda.
M. Friedman


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Evropski parlament se je načeloma dogovoril o vsebini zakona o umetni inteligenci

Oddelek: Novice / Tožbe
364595 (2079) tomlin
»

EU dobiva prve obrise svoje digitalne prihodnosti

Oddelek: Novice / NWO
184050 (2172) Lonsarg
»

Razvijalci umetne inteligence za prepoved avtonomnih orožij (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
5514540 (12407) nevone
»

Filmi, slike in glasba: Ko se srečata umetna inteligenca in umetnost

Oddelek: Novice / Znanost in tehnologija
94725 (4103) Fabio Jelani
»

Tema o umetni inteligenci (strani: 1 2 3 )

Oddelek: Znanost in tehnologija
10516408 (13349) vostok_1

Več podobnih tem