» »

Umor stroja?

Umor stroja?

1
2
3 4 5

Okapi ::

v smislu mislečega človeka, skupaj s samozavedanjem in vsem. Ne zgolj prazne kalkulacije.

Kdo pravi, da naše misli niso samo primerno zapletene kalkulacije? Vse je samo delovanje kemičnih in električnih signalov velikega števila med seboj povezanih živčnih celic in njihovih sinaps.

O.

username ::

Če pa nardim svoj lasten ultimativni dizajn mislečega stroja in ga tut sestavim iz posameznih atomov, pa te svobode nima več?
Ne, nima. V prvi vrsti je namreč tu vprašanje svobode kreatorja* - ali nekaj naredi (z uporabo svojega razuma) ali ne. Če se odloči da ne naredi - to itak ne bo obstajalo**.

Kaj pa, če se men sploh ne sanja kako je narava zgradila te stvari in do enakega dizajna pridem v svojem laboratoriju zaprt med 4 stene in brez stika z ostalo znanostjo (nobenega plonkanja). Moj misleči stroj je po delovanju nelorazločljiv od "od matere rojenega". A bo svoboden ali ne?
Ta hipoteza je sicer tako nemogoča, da ima komaj smisla o njej razmišljati.
Ampak odgovor je zame povsem jasen: Ne, tak stroj ni svoboden. Moja lastnina je.


**Dodaten razvoj te ideje: Če sem soočen že zgolj z možnostjo, da bom z naporom svojega razuma ustvaril sentienten stroj, ki pa mi ga bodo zato vzeli oziroma sam ne bo počel tistega kar hočem, jaz pa ne bom nič mogel ukreniti - se bom že v štartu odločil, da se razvoja takega stroja sploh ne lotevam. Kar je v takem položaju edina razumna odločitev.

* izraz 'kreator' je tu pravzaprav dokaj na mestu, ker namiguje na religiozne razlage. Pri čemer je povsem nepomebno, ali kdo veruje (in v kaj) ali sploh ne.
V bibliji so namreč del 'posla' že naredili za nas, so že razvili koncept Kreatorja (Stvarnika), ki lahko ustvarja, lahko pa ustvarjeno tudi uniči. Zakaj? Ker je on s(S)tvarnik. Ne potrebuje drugega razloga.
I've got a solution for the rainforest: napalm the lot. (Jeremy Clarkson)

Zgodovina sprememb…

  • spremenilo: username ()

darkolord ::

Glih par dni nazaj sem gledu Blade Runner, kjer imajo zanimov koncept replikantov - bioroboti, ki so popolnoma enaki ljudem, a to niso. So se pa vedno uporabljali le kot sužnji, dokler niso naredili masakra in so jih prepovedali na Zemlji.

Čeprav je sci-fi, je pomoje to točno tako, kakor bi stvar potekala tudi v resnici - kljub identičnosti ljudem nikoli ne bi bili priznani kot ljudje, ko bi pa prvi od njih naredil sranje (kar bi seveda bilo neizogibno), bi se vsi začeli spraševat, kako se jih znebit...

Zgodovina sprememb…

  • spremenilo: darkolord ()

noraguta ::

ja zdefiniral so jih z working funkcijo , ter jih po potrebi ustrezno upokojevali.
Pust' ot pobyedy k pobyedye vyedyot!

Okapi ::

kljub identičnosti ljudem nikoli ne bi bili priznani kot ljudje,

Ni res. Natanko tako bi bilo, kot je bilo s sužnji. Najprej jim ne bi priznavali nobenih pravic, lastnik bi jih lahko po mili volji tudi ubil. Potem bi jih do neke mere zaščiti in z njimi ne bi več smeli kruto ravnati in jih ubijati, še vedno pa bi jih lahko kupovali in prodajali in ne bi bili svobodni. Potem bi jim začeli nekje priznavati še več pravic, recimo toliko, kot so jih imeli tlačani, potem bi jih osvobodili (ne povsod istočasno), ampak še vedno ne bi bili enakopravni in ne bi imeli volilne pravice, recimo, pa morda ne bi smeli zaposlovati ljudi. In potem bi jim pač počasi priznavali še vse druge pravice, skladno s tem, kolikor bi si zanje sami dejavno prizadevali. Kako miroljubno bi vse skupaj potekalo, pa je seveda odvisno od tega, koliko bi ljudje misleče stroje sploh potrebovali in kaj bi si stroji sami mislili o svojem položaju in o vlogi ljudi.

O.

WarpedGone ::

Okapi:
Kdo pravi, da naše misli niso samo primerno zapletene kalkulacije? Vse je samo delovanje kemičnih in električnih signalov velikega števila med seboj povezanih živčnih celic in njihovih sinaps.

Seveda, vendar nekje na poti od navadnega 1 + 1 do tega kar se dogaja v naših glavah se nekaj zgodi - nekako in od nekje vznikne (počasi ali hitri) Zavest, fenomen opazovanja in dojemanja samega sebe. Kaj točno to je, nam ni jasno. Komot si je namreč zamislit zombija, ki navzven deluje kot običajen človek, v njegovih možganih stvari laufajo enako vendar se ne zaveda samega sebe. Okol tega vprašanja so stvari še zelo nejasne - zakaj se sploh zavedamo.

username:
Ta hipoteza je sicer tako nemogoča, da ima komaj smisla o njej razmišljati. Ampak odgovor je zame povsem jasen: Ne, tak stroj ni svoboden. Moja lastnina je.

Smo na terenu kjer se ne moremo zanašat na naše lastne omejitve, češ sej tega pa ne bomo nikol sposobni, škoda se matrat. Misleči stroj je funkcionalno vsaj ekvivalenten človeku - zelo hitro ga bo pa presegel. Nujno je predelat celotno možno polje in stališče zavzet na podlagi celotnega polja. Le tako bo držalo vodo.

Ti očitno koncept zasebne lastnine postavljaš nad koncept osebne svobode. Smo pri tem kar je okapi napisal "Verjeli in priznali". Js ga vidim bolj v smislu "moje pravice se končajo tam, kjer se prično pravice drugega - magari moje lastne stvaritve".

Današnji stroji nimajo nobenih pravic, ker so pač dovolj drugačni/enostavnejši od nas. V momentu, ko pa sm sposoben ustvarit stroj, ki mi je funkcionalno in subjektivno enakovreden pa ne vidim pravega razloga, zakaj on nebi smel imet nobenih pravic (recimo, pravice o odločanju o njegovem lastnem obstoju). Komot bi namreč bil js tisti, ki ga je nekdo sestavil v lastni garaži. V tem primeru bi si takšno pravico precej močno želel.

*Dodaten razvoj te ideje: Če sem soočen že zgolj z možnostjo, da bom z naporom svojega razuma ustvaril sentienten stroj, ki pa mi ga bodo zato vzeli oziroma sam ne bo počel tistega kar hočem, jaz pa ne bom nič mogel ukreniti - se bom že v štartu odločil, da se razvoja takega stroja sploh ne lotevam. Kar je v takem položaju edina razumna odločitev.

Supreme power comes with supreme responsibility. Če si sposoben ustvarit subjekt, si dolžan to svojo moč ustrezno previdno uporabljat. Ideja, da ti bi kdo karkoli vzel, je tuki mal zgrešena. Takšen produkt, bi v momentu ko se začne zavedat (al pa kakšnem drugem primernem), prenehal bit tvoj ampak svoj lasten.
Zbogom in hvala za vse ribe

username ::

Čeprav je sci-fi, je pomoje to točno tako, kakor bi stvar potekala tudi v resnici - kljub identičnosti ljudem nikoli ne bi bili priznani kot ljudje, ko bi pa prvi od njih naredil sranje (kar bi seveda bilo neizogibno), bi se vsi začeli spraševat, kako se jih znebit...
Saj pravim, me zanima kdo se bi/bo sploh resno lotil razvoja takih strojev, če nimaš vnaprej neke varovalke, da stroj ne dela sranja oziroma da lahko stroj ti svobodno uporabljaš za tisti namen, za katerega si ga sploh razvil.
I've got a solution for the rainforest: napalm the lot. (Jeremy Clarkson)

username ::

Misleči stroj je funkcionalno vsaj ekvivalenten človeku - zelo hitro ga bo pa presegel.
So what. Že stoletja obstajajo stroji, katerih moč precej presega človeške mišice. To je irelevantno, ni argument za podeljevanje pravic.

Aha, ko sem napisal "podeljevanje pravic", se mi je šele dokončno posvetilo, kaj manjka v razlagi mojega stališča !
Namreč, človeku pravice niso podeljene. Z njimi se rodiš in pika. So absolutne in nihče ne sme tebi jemati teh pravic, po drugi strani zato tudi ni nihče pristojen, da ti jih daje. Ker jih imaš avtomatsko. Zato sploh ni primerno govoriti o podeljevanju pravic ljudem.
Pri strojih pa se pogovarjamo, ali bi jim podelili pravice. Ki jih nimajo.
Kar bi bila huda napaka, IMO. Razen seveda, če kdo želi podeljevati pravice strojem v svoji lasti, to je pač del njegove pravice kot lastnika.

Ti očitno koncept zasebne lastnine postavljaš nad koncept osebne svobode.
Nikakor. Sicer koncept osebne svobode postvljam daleč najvišje - koncept zasebne lastnine pa je itak neločljiv del osebne svobode. Zato je povsem nesmiselno rangirat en ali drug koncept med seboj, ker sta neločljiva.

Današnji stroji nimajo nobenih pravic, ker so pač dovolj drugačni/enostavnejši od nas.
Narobe. Ne ker so enostavnejši, ampak ker smo jih mi ustvarili.

V momentu, ko pa sm sposoben ustvarit stroj, ki mi je funkcionalno in subjektivno enakovreden pa ne vidim pravega razloga, zakaj on nebi smel imet nobenih pravic (recimo, pravice o odločanju o njegovem lastnem obstoju).
V redu, ampak to počni le s stroji, ki so v tvoji lasti, če tako želiš. Mojim strojem pa nimaš pravice podeljevati pravic, to smem le jaz.
Tako kot ne smeš 'podeliti pravic' mojemu avtu, le-ta pa se bo potem odločil odpeljati stran od mene (naprimer v tvojo garažo?). Temu se preprosto reče - kraja.

Ideja, da ti bi kdo karkoli vzel, je tuki mal zgrešena. Takšen produkt, bi v momentu ko se začne zavedat (al pa kakšnem drugem primernem), prenehal bit tvoj ampak svoj lasten.
Ni zgrešena. Nekaj imaš (ker si ustvaril), potem pa nimaš več. Ergo ti je nekdo vzel.
Še enkrat pa vprašanje: zakaj bi se sploh loteval takega produkta, če ti potem gre stran?
I've got a solution for the rainforest: napalm the lot. (Jeremy Clarkson)

WarpedGone ::

Namreč, človeku pravice niso podeljene. Z njimi se rodiš in pika.

Takšno je trenutno aktualno gledanje. Pa 200 let nazaj? Pa čez 200 let? Razširi malo pogled.
Nikakor. Sicer koncept osebne svobode postvljam daleč najvišje - koncept zasebne lastnine pa je itak neločljiv del osebne svobode. Zato je povsem nesmiselno rangirat en ali drug koncept med seboj, ker sta neločljiva.

Osebi (ekvivalent obstoječega človeka), ki bi jo ti sestavil v svojem ultralaboratoriju, po tvoje ta osebna svoboda nebi pripadala - je nebi imela, ker si jo pač ti sestavil. Kaj je to druzga kot rangiranje konceptov? Tvoja zasebna lastnina je prevladala nad njegovo osebno svobodo.
Še enkrat pa vprašanje: zakaj bi se sploh loteval takega produkta, če ti potem gre stran?

To je problem tebe kot kreatorja. Ne vem zakaj bi te kdorkoli silil, da bi moral ustvarjat takšne subjekte.
Zbogom in hvala za vse ribe

darkolord ::

Natanko tako bi bilo, kot je bilo s sužnji.

Pri sužnjih, tlačanih in črncih je malo drugače, ker so vse to še vedno ljudje. Biorobot je pa vseeno "zgolj" robot.

Če bi AIBO imel "možgane" pravega kužka, bi to igračko dojemali kaj drugače (kot živo bitje namesto kot igračo)?



IMHO se (tapravi :)) ljudje nikakor ne bi mogli znebit neprijetnega občutka, da živijo z roboti... V kolikor bi bili v to prisiljeni, bi se jih pa navadili že v nekaj generacijah.


če nimaš vnaprej neke varovalke

Mnja, sam če mu daš kot varovalko recimo kratko življenjsko dobo (Nexus-6 v Blade Runner je delal 4 leta) ali pa kakšno stikalo za izklop, potem se še vedno pojavi vprašanje iz prvega posta - a si ga s tem umoril?

Zgodovina sprememb…

  • spremenilo: darkolord ()

username ::

Pa 200 let nazaj? Pa čez 200 let? Razširi malo pogled.
Čemu le? Kar sem napisal, je povsem skladno z načeli objektivizma (poguglaj po pojmih objectivism in Ayn Rand). Objektivizem temelji na dveh osnovnih aksiomih, ki se glasita "Realnost obstaja" in "A je enako A". Kakršnokoli 'razširjanje pogleda' nikoli ne more iti mimo teh osnovnih aksiomov - v nasprotnem primeru kontaminiraš svoj miselni proces, tako kot če bi si namenoma skrhal nož. Čemu le?

Osebi (ekvivalent obstoječega človeka), ki bi jo ti sestavil v svojem ultralaboratoriju, po tvoje ta osebna svoboda nebi pripadala - je nebi imela, ker si jo pač ti sestavil. Kaj je to druzga kot rangiranje konceptov? Tvoja zasebna lastnina je prevladala nad njegovo osebno svobodo.
Spet si že v začetku pogrnil.
Kar si ustvaril v laboratoriju, ni oseba, temveč stroj. Ker ni oseba, nikakor ne moremo govoriti o kaki osebni svobodi. End of story.
Nobenega rangiranja konceptov ni tle.
Strojeva 'osebna svoboda' ne obstaja, zato moja zasebna lastnina ne more prevladati nad strojevo osebno svobodo, ker slednje pač sploh ni.
I've got a solution for the rainforest: napalm the lot. (Jeremy Clarkson)

BlueRunner ::

Razmislek1: Oseba je pojem določen v zakonih. Zakoni so družbeni dogovori.

Razmislek2: V določenih družbah, obdobjih in okoljih so obstajale skupine ljudi, ki jim status osebe v družbi ni bil priznan.

Razmislek3: Če uničenje mrtvega človeškega telesa ni umor, potem je vprašanje, če je oseba združenje zavesti s človeškim telesom, ali pa je oseba lahko tudi zavest povezana s telesom, ki ni človeško.

Razmislek4: Če rečemo, da je za priznanje pravic osebe zadosti že obstoj zavesti, ne glede na formo, ki ji omogoča obstoj, ali so potem osebe tudi živali okoli nas?

Razmislek5: Če rečemo, da je za priznanje pravic osebe, poleg Razmisleka4, potrebna tudi določena stopnja intelegence, ali potem tako ali drugače prizadete ali omejene osebe več niso osebe?

Razmislek6: Če bo prišlo do uspešne kreacije zlitja človeških možgan s strojem, ki omogoča njihovo nadaljno delovanje neodvisno od človeškega telesa, ali bo to še oseba?

Razmislek7: Če pride do obratnega: umetni možgani - AI, ki upravljajo s človekovim telesom. Ali lahko takšnemu produktu rečemo oseba?


Morda je na vsa ta vprašanja odgovoril še Clark v svojih Odisejah. Če smo soočeni z intelegenco, ki je sposobna čustvenega odziva, ki lahko sanja in, ki je sposobna razumeti pojem smrti, ali smo sposobni to intelegenco sprejeti kot "živo" in ji dati vse pravice, ki si jih sami lastimo zase?

Ali smo pripravljeni tvegati, da nas bo ta intelegenca v strahu (čustvu) za svoj obstoj pripravljena tudi uničiti? Bodisi na osebni ravni (Odiseja 2001), bodisi na ravni genocida (Matrica).

WarpedGone ::

darkolord:
Pri sužnjih, tlačanih in črncih je malo drugače, ker so vse to še vedno ljudje

Tako razumeš danes ti, ko ti koncept "ljudje" nekaj pomeni. Takrat za njih to niso bili ravno "današnji ljudje" ampak črnci, govoreče opice, orodje. Koncept "ljudje" je bil takrat hudo meglen in praktično nepomemben.

Tole sm omenjal že nekje na začetku teme, še enkrat: Koncept meje med "nami / drugimi" se skozi zgodovino širi. Zdej smo pretežno na tem da smo pomembni mi ljudje, drugi "neljudje" pa niso pomembni. Nekoč smo bili pomembni samo moški angleži al pa samo moški nemci, drugi so bli "ološ", še prej smo bili pomembni samo pripadniki našega plemena, vse ostalo je bilo "for us to use".

username:
Čemu le?

Ker bluziš. Človek se rodi le s tem kar tvori njegovo telo. Neke pravice itd. niso materialne zato se s tem ne rodi. Te pravice mu mora okolica priznat, sicer jih ni. Na podlagi česa, koliko in kdaj mu okolica te pravice prizna je pa stvar okapijevega "verjeli in priznali". Trenutno okolica pač ljudem te pravice priznava ob rojstvu. Popularna interpretacija pa je, da je to neki "človeku lastnega". Jajca. To je le rezultat doseženega razvoja družbe in trenutnega pojmovanja stvari. Sintaksa.

Kar si ustvaril v laboratoriju, ni oseba, temveč stroj. Ker ni oseba, nikakor ne moremo govoriti o kaki osebni svobodi. End of story.
Nobenega rangiranja konceptov ni tle.

Torej je bistvena razlika v tem, kdo je koga/kaj ustvaril?
Če je padel iz neba (evolucija), je svobodno bitje, če ga je sestavilo drugo svobodno bitje, je pa le še eno kladivo. Oprosti, no cigar.

Strojeva 'osebna svoboda' ne obstaja, zato moja zasebna lastnina ne more prevladati nad strojevo osebno svobodo, ker slednje pač sploh ni.

Sužnjeva 'osebna svoboda' ne obstaja...
Zbogom in hvala za vse ribe

Okapi ::

človeku pravice niso podeljene. Z njimi se rodiš in pika. So absolutne in nihče ne sme tebi jemati teh pravic, po drugi strani zato tudi ni nihče pristojen, da ti jih daje.

Motiš se. Če so ti bile pravice, ki jih sedaj uživaš, podeljene par sto let, preden si se rodil, to še ne pomeni, da ti niso bile podeljene. To z absolutnimi pravicami je pa še večja zmota. Že sedaj imajo na Irskem in še kje človeški zarodki več pravic kot pri nas in v večini razvitega sveta. Kaj je tu absolutnega? Danes pravice imaš, jutri pa jih lahko izgubiš, ali pa dobiš kakšne nove, za katere včeraj sploh nisi vedel, da ti pripadajo. Vse pravice so stvar družbenega dogovora in se spreminjajo, kot se spreminja družba.

O.

Pyr0Beast ::

Če se stroj umori a se ga nato popolnoma popravi, se to lahko še vedno šteje kot umor ali le kot materialna škoda ? :)
Some nanoparticles are more equal than others

Good work: Any notion of sanity and critical thought is off-topic in this place

Saladin ::

Če je bil v stroju sentinten um, se šteje kot "telesna poškodba" ali celo kot "poskus umora", če je pri tem dejanju obstajal rizik izgube sentience.

Saj ljudje smo tudi lahko par minut klinično mrtvi, pa nas oživijo. Veljajo podobna pravila.
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

username ::

WarpedOne in Okapi: človeške pravice so absolutne in neodvisne od družbenih dogovorov. Od družbenih dogovorov je odvisno le, ali jih v praksi lahko uveljavljaš ali pa ti jih drugi posamezniki ('družba') kršijo.

Če so ti bile pravice, ki jih sedaj uživaš, podeljene par sto let, preden si se rodil, to še ne pomeni, da ti niso bile podeljene.
Glej, noben nima pravice rečt, da mi je podelil kakšno pravico. Mu rečem 'ma kaj boš ti nakladal, kako mi podeljuješ nekaj, kar je absolutno moje, neodvisno od tebe, ki si se zdajle primajal mimo. Mrš!"

Če je padel iz neba (evolucija), je svobodno bitje, če ga je sestavilo drugo svobodno bitje, je pa le še eno kladivo.
Točno tako.

Sužnjeva 'osebna svoboda' ne obstaja...
???
Seveda obstaja! Kaj govoriš, človek?
V praksi mu jo sicer žal nekdo krši (nasilno preprečuje uveljavljanje njegove svobode), ampak njegova osebna svoboda obstaja še vedno.
Če tebe nekdo ugrabi, tudi nimaš več osebne svobode. Ampak to je samo opis trenutnega stanja, ne pa opis tebe kot svobodnega bitja.
I've got a solution for the rainforest: napalm the lot. (Jeremy Clarkson)

username ::

Če se stroj umori a se ga nato popolnoma popravi, se to lahko še vedno šteje kot umor ali le kot materialna škoda ? :)
Dobro vprašanje.
Lahko nadaljujem takole:
"Recimo da ustvariš in zalaufaš sentienten stroj, pa šele po njegovem zagonu zaslutiš, da nekaj si v programu zašuštral ter da se bo stroj dokaj verjetno obrnil proti tebi in te morda ubil (ali pa koga drugega) - ali ga smeš proti njegovi volji izklopiti in modificirati program?"
I've got a solution for the rainforest: napalm the lot. (Jeremy Clarkson)

Okapi ::

človeške pravice so absolutne in neodvisne od družbenih dogovorov.

No, potem jih pa naštej.

O.

username ::

Saj je samo ena glavna: pravica do osebne svobode, ki logično vključuje pravico do življenja. Tudi vse ostale (pravica do lastnine, svoboda govora itd.) so neposredno izpeljane iz osebne svobode oziroma so njen sestavni del.
I've got a solution for the rainforest: napalm the lot. (Jeremy Clarkson)

Pyr0Beast ::

Če je bil v stroju sentinten um, se šteje kot "telesna poškodba" ali celo kot "poskus umora", če je pri tem dejanju obstajal rizik izgube sentience.

Vendar, kaj pa če stroju ni pomembno da mogoče izgubi za tisti dan spominov, temveč bolj vrednoti svojo razumsko moč, mogoče skupek nevronov katerega se da brez večjih tveganj presajati iz 'ohišja v ohišje'.
Npr. delavski stroj, katerega je v rudniku zasula večja količina materiala, narejen tako, da matrica preživi neglede na zunanje poškodbe. Koliko je potem vredna ta nesreča ? Eno ohišje, mogoče dva ? Nadomestilo za povzročene duševne bolečine mogoče ?

Lahko to sploh primerjaš s trenutnimi nesrečami, kjer rudarji niso več med živimi ?

Kaj če je razlika med kirurškim in delavskim robotom samo v ohišju, bi si poškodovani robot lahko zahteval boljše ogrodje ter postal kirurg malce prej kot bi mu to uspelo s svojim trdim delom in prisluženim denarjem ?

Najbrž bi potem obstajal tudi trg ohišij, staro za novo, mogoče tudi _meatloaf_ ohišje mrtvega človeka ?

Nekako prideš do tega, da je um neprecenliv. Kako bi robota obsodil za umor drugega robota. Reboot in celotni izbris uma ? Bi mu v zameno moral dati svoje ohišje, ubobožani robot pa bi prevzel njegovo funcijo ?

Kaj pa če samo povzročiš da se tisti robotek zacikla v svoji funkciji in tako preneha biti sposoben opravljanja česarkoli dokler ga ne brcneš ven iz cikla ? Na primer pri pouku matematike, štej do neskončno (in nazaj !) :)
Some nanoparticles are more equal than others

Good work: Any notion of sanity and critical thought is off-topic in this place

Okapi ::

pravica do osebne svobode,

In kakšna je ta pravica? Pravica, da moraš policaju pokazati osebni dokument? Pravica, da moraš plačevati davke? Pravica, da se ne smeš drogirati? Pravica, da se ne smeš gol sprehajati po mestu? Pravica, da moraš hoditi v v osnovno šolo (zdaj bi pa radi naredili tudi srednjo šolo obvezno)? Jaka tale osebna svoboda:P

O.

Zgodovina sprememb…

  • spremenil: Okapi ()

BlueRunner ::

Pravica do osebne svobode, tudi do življenja ti je lahko odvzeta, če grobo prekršiš družbene norme. Torej to ni absolutna pravica. To so samo pravice, za katere se je v družbi odločilo, da jih poseduješ, če izpolnjuješ za to določene pogoje.

Morda ne razumeš pojma "absolutna pravica", ali pa ga ne razumeš v pravniškem pomenu, kjer ima to zelo določen pomen.

Ne moreš pa trditi, da so ta vprašanja nad pravom, zato ker je samo pravo tisto, ki našteva tvoje osebne pravice, oziroma te sploh razpozna kot "osebo". No. Da se popravim. Lahko trdiš, da so te stvari nad pravom, ampak tvoja mnenja nimajo nikakrše teže.

Dokler nekemu predmetu družba ne prizna pravic osebe - torej ga prepozna kot osebo - toliko časa je uničenje takšnega predmeta samo povzročanje materialne škode lastniku. Sužnje, mimogrede, se ni pobijalo, ampak se jih je uničivalo.

Sedaj se pa lahko vrnemo k metafizičnem: če misleče bitje ubijem, ali sem s tem dejansko ubil osebo? Kaj lahko definira "osebo", da se ne bo družba čez toliko generacij zgrozila nad lastnim početjem? Ali bomo lahko strojem kadarkli podelili človeške pravice in jim dali status oseb? In če je zavest v stroju praktično večna, ker je stroj praktično večen, ali no to že v bistvu drugačna oblika zavesti? Ali je to tudi oblika življenja? Ali je propagacija genov edini način, da nekaj sploh spoznamo za živo? Ali je "živo" nujen predpogoj za priznanje osebe?

Hm... ali je krščanski bog živ? Glede na to, da je večen in omnipotenten? Zagotovo tudi ni človek, čeprav je bil človek ustvarjen po njegovi podobi. Tako kot animatron ni človek, čeprav je lahko ustvarjen po človeški podobi.

Saladin ::

Vendar, kaj pa če stroju ni pomembno da mogoče izgubi za tisti dan spominov, temveč bolj vrednoti svojo razumsko moč,

Potem govoriš o drugem tipu sentience, za katerega bi si upal trditi, da je manjvredna od človeške. Kakršnakoli sentienca, ki je ni briga za integriteto svojih spominov in nasiljem nad sabo, ni enakovredna sentienca človeški.
Lahko ima večjo komputacijsko moč - vendar je vseeno manj vredna. Drugačnost je ena stvar - vendar obstaja jasna ločnica pri enakovrednosti z človeškim umom.

Ampak kljub temu bi jo obravnavali (in kaznovali prekrškarje) enakovredno - iz povsem etično/moralnih razlogov (tako kot obravnavamo mentalno hendikepirane ljudi, celo savante, kot enakovredne - čeprav vemo, da to umsko niso). Tudi če tega sami ne razumejo in nočejo, si zaslužijo enako spoštovanje.
Upam da sem tukaj jasen, da ne širim nestrpnost - povem le, kako je.


Nekako prideš do tega, da je um neprecenliv. Kako bi robota obsodil za umor drugega robota.

Um je res neprecenljiv. Enakovredno sentientega robota bi pa obsojal enakovredno kot ljudi. Če je robot sposoben samoreflekcije in samopopravkov, bi mu zadal "zaporno kazen" (lahko zgolj z "zaporom za um") za osebno rast in samoizboljšanje.
Če to ne bi šlo, bi bila druga stopnja prisilno reprogramiranje.
Če pa tudi to ne bi delovalo, pa bi zagovarjal terminacijo sentience.
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

WarpedGone ::

Um je res neprecenljiv.

Znamo povedat zakaj tako?
Kaj je tako posebnega na umu/zavesti da ima tako visoko vrednost?
Kakšne sorte vrednost je sploh to?
Zbogom in hvala za vse ribe

Pyr0Beast ::

Kaj je tako posebnega na umu/zavesti da ima tako visoko vrednost?
Nenadomestljivost in unikatnost vsakega posameznika/duše.

Potem govoriš o drugem tipu sentience, za katerega bi si upal trditi, da je manjvredna od človeške. Kakršnakoli sentienca, ki je ni briga za integriteto svojih spominov in nasiljem nad sabo, ni enakovredna sentienca človeški.
Heh. Človeški um sproti pozablja kaj smo počeli prejšnji dan, pa se za to ne počutimo manjvredne.

Spet, stroj bi lahko šel do vseh svojih postajališč in si tam osvežil, kaj se je dogajalo na dan njegove smrti. Vendar, če je ta dan popolnoma neposeben v kateremkoli pogledu - 23h dela ter 1h servisiranja, zakaj bi ga sploh skrbelo za to ? Poleg tega je več ur ali celo dni izgubil med tem, ko je bil v 'komi'.
Stroju dnevi niso šteti tako kot ljudjem, vse kar je lahko zanjga pomembno so izkušnje in nadgraditve :)
Some nanoparticles are more equal than others

Good work: Any notion of sanity and critical thought is off-topic in this place

Zgodovina sprememb…

Saladin ::

Če stroja zavestno "ne briga" za svoje spomine (ker bi resurce raje optimiral za kaj drugega) je to drugo, kot pa izdelava stroja, ki ni sposoben "se brigati" za taka vprašanja.

V prvem primeru imaš svobodno sentienco, v drugem pa hendikepirano.
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

Pyr0Beast ::

V kolikor bi bila matrica narejena za trajnost, bi stroj lahko živel večno.
Kaj pa je en dan v primerjavi z tisočletjem življenja ?

Vprašanje če bi se stroj sčasoma začel sekirati zaradi svojih odločitev, "With wisdom comes sorrow."

Kako pa bi sploh lahko kontrolirali njihovo zavest, da nas nebi preprosto pobili. Kaj bi tak stroj vodilo v 'ustvarjanju' boljšega sveta in kaj bi bilo potrebno da se spremeni v "Ruthless killing machine?"
Some nanoparticles are more equal than others

Good work: Any notion of sanity and critical thought is off-topic in this place

username ::

Še vedno nihče ni poskušal odgovoriti na vprašanje, ki sem ga postavil danes ob 16:31:07 , pa ga še enkrat postavljam:
"Recimo da ustvariš in zalaufaš sentienten stroj, pa šele po njegovem zagonu zaslutiš, da nekaj si v programu zašuštral ter da se bo stroj dokaj verjetno obrnil proti tebi in te morda ubil (ali pa koga drugega) - ali ga smeš proti njegovi volji izklopiti in modificirati program?"

Imam pa že nadaljevalno vprašanje in sicer:
Denimo, da si ustvaril sentienten stroj - robota, ki je sedaj dobil pravice in postal oseba itd. Skratka, ni več tvoj stroj, ampak samo svoja svobodna oseba.
Potem pa začne delati hude zločine (pobija itd) in izkaže se, da je kriv prvotni program, ki si ga ti napisal za tega robota.
Kdo je sedaj odgovoren za nastali kažin? Ustvarjalec stroja ali svobodni stroj sam?
Pa recimo da lahko to razdelimo v dve verziji: patološko programiranje si vgradil a) namenoma; ali b) nenamenoma, iz šlamparije?
I've got a solution for the rainforest: napalm the lot. (Jeremy Clarkson)

BlueRunner ::

Če imaš pred seboj osebo, z vsemi človekovimi pravicami, ki se jih "osebi" tipično priznava, potem nimaš pravice do nikakršne spremembe več.

Tudi odgovornost za kažin je na strani takšne "osebe" in ne njenega stvaritelja, ker si jo definiral kot "svobodno osebo". To minimalno pomeni, da lahko samostojno sprejema lastne odločitve in razume posledice svojih odločitev in dejanj.

Tako kot starši niso krivi grehov svojih otrok, ko ti enkrat dosežejo stopnjo svobode (kje je to, znova opredeljuje družbeni dogovor), tako tudi stvaritelj takšne "osebe" ne more biti kriv njenih zločinov.

Če pa pred seboj nimaš "osebe" temveč "stvar", pa ti je dana vsa pravica do tega, da jo spremeniš, uničiš ali z njo narediš karkoli ti sicer poželi. Če si seveda lastnik te stvari. Volja te stvari je v takšnem primeru vredna natančno toliko kot je vredna teletova volja do življenja, ko se ga izkrca pred klavnico.

Zato se vedno vračaš nazaj na izhodišče. Ali obstaja podlaga da takšna "stvar" postane "oseba", ali pa takšne podlage ni. Pri temu pa se seveda nujno vprašaš kaj nekoga danes sploh definira kot "osebo" in ali in kako se lahko ta definicija skozi čas spreminja.

Zgodovina sprememb…

WarpedGone ::

Ja, username, hard questions.

Takšni defektni osebki so danes realnost, razlika je le da ni smiselno krivit staršev, da ima njihov potomec defekten DNK in posledično čudne psihične odklone. Ona sta se samo fajn mela, ratalo je pa kar je pač ratalo. Objektivno gledano nista imela vpliva na detajle mešanja DNK.

Ignorance is bliss.

Če se igraš z ognjem je morebiten požar realna možnost in se tega enostavno moraš zavedat in ustrezno zaščitit. Če vseeno zakuriš celo mesto, je vsaj del odgovornosti na tvojih plečih. Analogno velja, če uspeš spacat rahlo defektno osebo, ki se izkaže za hudga zločinca.

Kako velik naj bo ta procent odgovornosti ali celo krivde je pa vprašanje za bodoče pravnike in eksperte na tem področju. Odvisno koliko je takšna posledica sploh odvisna od začetnih pogojev, na katere si imel vpliv, koliko pa od česa druzga.

Ampak čist v osnovi mora še vedno veljat: opustitev odgovornega ravnanja je malomarnost. Za posledice takšnega ravnanja je treba odgovarjat.

BlueRunner:
tako tudi stvaritelj takšne "osebe" ne more biti kriv njenih zločinov.

Nah. Zgleda si spregledal del, kjer je username napisal:
izkaže se, da je kriv prvotni program, ki si ga ti napisal za tega robota.


Če sm kot kreator zahebal program novega osebka, je ta napaka moja "zasluga", posledično so tudi vse težave, ki iz nje izhajajo, moja odgovornost. Vprašanje je dokazovanje, koliko sm se js te napake morda zavedal, koliko sm jo namenoma vgradil, koliko varnostnih postopkov sem opustil, katere sm uporabil, itd.
Zbogom in hvala za vse ribe

username ::

Tako kot starši niso krivi grehov svojih otrok, ko ti enkrat dosežejo stopnjo svobode (kje je to, znova opredeljuje družbeni dogovor), tako tudi stvaritelj takšne "osebe" ne more biti kriv njenih zločinov.
Po tvoji logiki je torej takole:
Skregam se z enim človekom in mi gre tako na jetra, da ga hočem ubiti. Pa ustvarim sentientnega robota in vanj naskrivaj vgradim mehanizem, ki bo povzročil, da bo tudi moj robot skrajno sovražil tega človeka. Ko robota dokončam, se mu zaradi njegove "sofisticiranosti" in "sentience" prizna, da ima pravice in je samo svoja svobodna oseba. Nato le še počakam, da gre robot fentat mojega sovražnika.
Evo, sem se znebil svojega zoprnika, vsega pa bo kriv sentientni robot. Ni mi treba lastnoročno ubijati, celo ne najemati poklicnega morilca.
V bistvu lahko s tem nekoga ubijem in me nihče ne bo mogel kaznovati.
Tudi do tega lahko pripelje priznavanje pravic strojem.
I've got a solution for the rainforest: napalm the lot. (Jeremy Clarkson)

Pyr0Beast ::

Sentienten stroj najbrž lahko ustvarjaš in ugašaš po potrebi, vendar, ko ga enkrat daš v 'uporabo' preostalemu svetu ga prepustiš samemu sebi, do takrat pa je najbrž tvoja odgovornost

Zdaj, a bi se štelo za hujši zločin nekaj tako trivialnega kot trpljanje po hrbtu, pa mu po nesreči zbiješ baterijo ven in stvar umre ? >:D
Ni nobene škode in še vedno lahko zadevo ponovno naložiš ter usposobiš za delovanje.
Ali naredijo potem stroj vrednega spomini in izkušnje ?

Sloppy programming je sloppy programming. Del krivde je nekako na robotu (saj z svojo inteligenco ni preprečil tega dejanja), vzrok in drugi del krivde pa na slabem programiranju.
Some nanoparticles are more equal than others

Good work: Any notion of sanity and critical thought is off-topic in this place

Okapi ::

Pa ustvarim sentientnega robota in vanj naskrivaj vgradim mehanizem,

To je čisto enako, kot če bi enega pacienta prepričal, da mu tisti človek streže po življenju in se ga mora zato znebiti. Če bi policija pri preiskavi umora to izvedela, bi bil sokriv umora, oziroma napeljevanja k umoru ali kakor se pač temu reče. V primeru, da napeljuješ duševno prizadetega bolnika, si ti še bolj kriv kot on, v primeru stroja bi bilo pa prav enako, odvisno od strojeve pameti.

O.

BlueRunner ::

Če sm kot kreator zahebal program novega osebka, je ta napaka moja "zasluga", posledično so tudi vse težave, ki iz nje izhajajo, moja odgovornost. Vprašanje je dokazovanje, koliko sm se js te napake morda zavedal, koliko sm jo namenoma vgradil, koliko varnostnih postopkov sem opustil, katere sm uporabil, itd.


Ti si pa spregledal del, kjer sem napisal: Tudi odgovornost za kažin je na strani takšne "osebe" in ne njenega stvaritelja, ker si jo definiral kot "svobodno osebo". To minimalno pomeni, da lahko samostojno sprejema lastne odločitve in razume posledice svojih odločitev in dejanj.

Skregam se z enim človekom in mi gre tako na jetra, da ga hočem ubiti. Pa ustvarim sentientnega robota in vanj naskrivaj vgradim mehanizem, ki bo povzročil, da bo tudi moj robot skrajno sovražil tega človeka. Ko robota dokončam, se mu zaradi njegove "sofisticiranosti" in "sentience" prizna, da ima pravice in je samo svoja svobodna oseba. Nato le še počakam, da gre robot fentat mojega sovražnika.


Če ustvariš "stvar", ki izvrši tvojo voljo, je vsa odgovornost na tvojih ramenih. Če ustvariš "osebo", je ta že po definiciji sposobna ločevati dobro od slabega oziroma družbeno sprejemljivo od nesprejemljivega. Ravno tako razume in se zaveda, da bo vsako njeno dejanje imelo posledice tudi za njo samo. Zavest ima za avtomatično posledico, da ta "oseba", ki si jo ustvaril lahko tudi ne izpolni tvoje volje in namena s katerim je bila ustvarjena. To je definicija polne zavesti...

Torej ne moreš reči, da si odgovoren, če si ustvaril resnično samostojno osebo. Ta se lahko po svoji svobodni volji tvojim željam upre, ali pa jih sprejme. Če jih sprejme, jih seveda sprejme na lastno odgovornost.

Hkrati pa ne moreš reči, da nisi odgovoren, če si ustvaril omejeno osebo. Recimo temu osebo prez opravilne sposobnosti. Vendar takšni stvaritvi ne moreš reči svobodna oseba, odgovornost pa je tukaj v celoti na tvoji strani, če si takšnega bolnika zlorabil kot orodje svoje volje.


Po domače bi rekel da serjete s pojmi kdaj je nekdo pred zakonom odgovoren in kdaj ne. Seveda lahko kot stvaritelj zaserješ, vendar pa to ne spremeni zakona in razmerij pred zakonom. Npr. kriv si umora, če psihičnega bolnika prepričaš, da izvrši tvojo voljo. Hkrati pa psihičen bolnik v takšnem primeru ne more biti kriv umora, zato, ker manjka bistvena komponenta: razumevanje odgovornosti. Bil je dobesedno orodje v rokah storilca. Seveda pa je tudi odgovornost skrbnika osebe, ki je spoznana za okolici nevarno, da okolico in osebo samo zavaruje pred njenimi škodljivimi dejanji.

Vse to seveda, če rečemo, da je "stvar" možno razglasiti za "osebo".


Še vedno pa nismo prišli do odgovora kdaj in kako je prestopljena meja med stvarjo in osebo. Kajti, če ustvarim nekaj, kar je po vseh parametrih obnašanja in razmišljanja samostojna oseba (npr. HAL), ali sem potem še vedno sam odgovoren za posledice njenih odločitev? Mislim, da ne. Seveda pa to pomeni, da ta "ne" obvelja samo in izključno v primeru, da sodišče takšno stvaritev prepozna kot samostojno osebo. Če ugotovi vse znake zavesti in ugotovi, da je svoje odločitve ta zavest sprejemala neodvisno od moje volje.

Zgodovina sprememb…

mtosev ::

stroj ni ziv zato umora ni.
Core i9 10900X, ASUS Prime X299 Edition 30, 32GB 4x8 3600Mhz G.skill, CM H500M,
ASUS ROG Strix RTX 2080 Super, Samsung 970 PRO, UltraSharp UP3017, Win 11 Pro
moj oče darko 1960-2016, moj labradorec max 2002-2013

Zgodovina sprememb…

  • spremenil: mtosev ()

Okapi ::

Še vedno pa nismo prišli do odgovora kdaj in kako je prestopljena meja med stvarjo in osebo.

Seveda smo, že parkrat. Natanko takrat, ko se družba odloči, da to ni več stvar, ampak oseba, in to zapiše v ustrezen zakon. Nima to dosti skupnega s samo pametjo in zavedanjem stroja. Ko bomo ljudje stroju priznali (ali bili prisiljeni priznati), da je oseba, bo oseba. Kdaj se bo stroj začel počutiti kot oseba, je pa drugo vprašanje. Bo treba stroj vprašati:P

O.

BlueRunner ::

Torej je nujen pogoj za to, da si oseba ugotovitev, da si živ. Torej so lahko višje razviti primati tudi osebe. Živi nedvoumno so.

(ja, malo provociram... ali se sploh strinjamo kdaj in kdo si zasluži status osebe)

BlueRunner ::

Še vedno pa nismo prišli do odgovora kdaj in kako je prestopljena meja med stvarjo in osebo.

Seveda smo, že parkrat. Natanko takrat, ko se družba odloči, da to ni več stvar, ampak oseba, in to zapiše v ustrezen zakon. Nima to dosti skupnega s samo pametjo in zavedanjem stroja. Ko bomo ljudje stroju priznali (ali bili prisiljeni priznati), da je oseba, bo oseba. Kdaj se bo stroj začel počutiti kot oseba, je pa drugo vprašanje. Bo treba stroj vprašati:P


Čista Matrica. Ja. Se strinjam. Stvar bo postala oseba, ko ji bo v zakonu priznana ta pravica.

Če pa se začnemo pogovarjati o pogojih, kdaj bomo ljudje takšno pravico sploh pripravljeni priznati kateri koli stvari, razen Homo Sapiensu, pa ratajo stvari zabavne. Če postavimo omejitve preozko, izpadejo ven bolne in prizadete osebe, če pa začnemo to definicijo širiti, pa nenadoma notri ulovimo primate, delfine, race in še kakšno stvar. Še preden pridemo do umetne intelegence se moramo soočiti s to, ki nas že obdaja.

Okapi ::

Še preden pridemo do umetne intelegence se moramo soočiti s to, ki nas že obdaja.

Saj se, mnenja pa so različna in se tudi spreminjajo. Eni bi že sedaj šimpanzom in gorilam, pa kitom, delfinom in še komu priznali več pravic kot drugim živalim.

Sicer pa tudi vsi ljudje nimajo enakih pravic - imaš recimo opravilno nesposobnost in če si še prisilno hospitaliziran, nisi dosti na boljšem od šimpanzov v živalskem vrtu.

Tako da stvari niso črno-bele. Ko bo mogoče delati pametne stroje, bo tudi cel kup različnih razprav okoli tega. Nekateri bodo trdili, da se jih sploh ne sme delati, nekateri jim bodo hoteli priznati vse človeške pravice, drugi jim bodo priznali pravice otrok, tretji recimo pravice duševnih bolnikov ali šimpanzov, četrti jim bodo priznali pravice sužnjev ali tlačanov, peti bodo trdili, da njihova zavest ni prava (ampak umetna) in da zato nimajo nobenih posebnih pravic ... Potem se bodo pa med seboj kregali in prepričavali, v kakšni državi bodo imeli več pravic, v kakšni manj, kako se bo vse skupaj zares odvijalo, pa je sedaj nemogoče reči in je tudi odvisno, kakšna bo v resnici ta strojna pamet. Če bo temeljila na organskih celicah, ki bodo rasle v gojišču, bo verjetno precej drugače, kot če bo to le pameten softver.

O.

Pyr0Beast ::

Hkrati pa psihičen bolnik v takšnem primeru ne more biti kriv umora, zato, ker manjka bistvena komponenta: razumevanje odgovornosti. Bil je dobesedno orodje v rokah storilca.
Zdaj rabimo samo še puško z AI da zakompliciramo stvari :D
Some nanoparticles are more equal than others

Good work: Any notion of sanity and critical thought is off-topic in this place

BlueRunner ::

Mislim, da se ne zakomplicira. Vprašanje vedno ostaja isto: ali je lahko še karkoli razen človeka priznano tudi kot oseba.

Zanimivo, da se sužnjem ni zanikalo intelegence (samo v določenih obdobjih se jim je priznavalo omejeno npr. na podlagi rase), niso pa imeli pravice državljanov. Antičnega najboljšega približka današnjemu statusu osebe.

Tudi pri osebah brez opravilne sposobnosti je zanimivo, da jim odvzamemo nekatere svobode in jih odvežemo odgovornosti, še vedno pa jim priznavamo status osebe. Pravice do življenja tem osebam zagotovo ne odtegnemo, ker je to v naši druži nesprejemljivo. Tako, kot ta status priznavamo tudi rojenim mladičem naše vrste, ponekod pa tudi še nerojenim.

Biti oseba je v naši družbi najpomembnejši status. Mislim pa, da če bomo kdaj postali stvaritelji novih oblik intelegence in predvsem zavesti, ki bo sposobna lastnega in predvsem neodvisnega razmišljanja, potem bomo morali resno razmisliti o priznanju teh pravic tudi tem stvarem.

Vendar pa bo do takrat verjetno preteklo še veliko vode. Čas spremeni vse in ni rečeno, da človeštvo v trenutku takšnega stvarjenja ne bo imelo odgovora že na dlani. Ne glede na to kakšen bo...

username ::

Če sm kot kreator zahebal program novega osebka, je ta napaka moja "zasluga", posledično so tudi vse težave, ki iz nje izhajajo, moja odgovornost. Vprašanje je dokazovanje, koliko sm se js te napake morda zavedal, koliko sm jo namenoma vgradil, koliko varnostnih postopkov sem opustil, katere sm uporabil, itd.
Takole pa ne gre.

Prvič, če si prej trdil, da je treba sentientnemu stroju priznati pravice ("misleči stroj je po delovanju nelorazločljiv od "od matere rojenega". A bo svoboden ali ne?"), s tem pridejo tudi dolžnosti. Kot sem te razumel, pri določeni stopnji inteligence/sentientnosti ne sme biti razlike med obravnavo strojev in "naravnih" ljudi. Ko kreator izgubi pravico vplivanja na delovanje svojega stroja (ker je slednji postal samostojna oseba), je najmanj nepravično zahtevati odgovornost kreatorja za dejanja, ki jih je stroj naredil po osamosvojitvi.

Drugič, dokazovanje odgovornosti se lahko izkaže za precej težavno v praksi - kako zares dokazati, da je nek zločin sentientni robot (SR) storil direktno zaradi kreatorjevega programiranja, ne pa zaradi nadaljnjega razvoja svoje osebnosti po osamosvojitvi?
Tudi s stališča ogroženih tretjih ljudi pa je varneje, da kreator vedno obdrži popolno oblast nad svojim SR; ker potem se takoj ve, koga klicati na odgovornost. Tako kot je jasno, da sem jaz odgovoren za škodo, ko pozabim zategnit ročno in moj avto zapelje po hribu v avto nekoga drugega. Temu drugemu moram jaz poravnati škodo, ker sem jaz lastnik avta.

Npr. kriv si umora, če psihičnega bolnika prepričaš, da izvrši tvojo voljo. Hkrati pa psihičen bolnik v takšnem primeru ne more biti kriv umora, zato, ker manjka bistvena komponenta: razumevanje odgovornosti. Bil je dobesedno orodje v rokah storilca. Seveda pa je tudi odgovornost skrbnika osebe, ki je spoznana za okolici nevarno, da okolico in osebo samo zavaruje pred njenimi škodljivimi dejanji.
No evo. V tem primeru psihični bolnik nima svobode, kar se manifestira z nasilnim zdravljenjem ali pa prizna kasneje, ko mu sodišče ne sodi kot polnopravni razumni osebi.

BlueRunner > Torej ne moreš reči, da si odgovoren, če si ustvaril resnično samostojno osebo.
Točno tako!

Če ustvariš "stvar", ki izvrši tvojo voljo, je vsa odgovornost na tvojih ramenih. Če ustvariš "osebo", je ta že po definiciji sposobna ločevati dobro od slabega oziroma družbeno sprejemljivo od nesprejemljivega. Ravno tako razume in se zaveda, da bo vsako njeno dejanje imelo posledice tudi za njo samo.
No tu moram pa tudi BlueRunnerja popravit.
Glede zadnjega stavka: SR (sentientni robot) nima le razuma, ampak tudi čustva. Slednja lahko zameglijo razumsko odločanje - pri ljudeh je tako, zakaj ne pri SR? Če bi rad ustvaril SR morilca svojih sovražnikov, lahko pri ustvarjanju svojega SR v AI algoritme pač vgradiš močna negativna čustva do tvojih sovražnikov.

Glede začetnih stavkov: hja, če ustvariš SR, mu bodo priznane človeške pravice le, če si ga dobro ustvaril, da zna ločiti dobro in slabo, le tako lahko postane 'oseba'. Če tega ne zna, ga ne bodo razglasili za 'osebo' - v praksi to pomeni, da bo ostal tvoja lastnina. Razvijalci sentientnih strojev bodo tako imeli močan motiv, da namenoma razvijejo SR s hudimi osebnostnimi pomenjkljivostmi, da obdržijo svojo lastnino.

Treba se je namreč vprašati, kako sentientni robot (SR) sploh lahko nastane. Ga bo kdo namenoma razvil? Zakaj le, saj je na svetu že na milijarde sentientov.
Razumen motiv bi bil ustvariti AI, ki ti bo pomagala rešiti nek problem. Se pravi, motiv je nekaj profitabilnega. Če ta tvoja AI razvije sentienco, se ti to zgodi neplanirano - ker sentientnost najverjetneje ne pripomore k tvojemu cilju (AI za lastno uporabo), precej lahko pa ti prinese kup težav. Nenazadnje ti lasten produkt proglasijo za 'osebo' in si ostal brez vloženih sredstev.

Zato bi rekel, da je pri razvoju AI pravzaprav najbolj razumno veliko truda vložiti v to, da se iz AI ne bi razvil sentientni algoritem. Če je možno, je torej najbolj pametno poskusiti v osnovne algoritme za AI vsaditi mehanizme, ki bi morebiten razvoj umetne sentience v kali zatrli.
I've got a solution for the rainforest: napalm the lot. (Jeremy Clarkson)

WarpedGone ::

Prvič, če si prej trdil, da je treba sentientnemu stroju priznati pravice ("misleči stroj je po delovanju nelorazločljiv od "od matere rojenega". A bo svoboden ali ne?"), s tem pridejo tudi dolžnosti. Kot sem te razumel, pri določeni stopnji inteligence/sentientnosti ne sme biti razlike med obravnavo strojev in "naravnih" ljudi. Ko kreator izgubi pravico vplivanja na delovanje svojega stroja (ker je slednji postal samostojna oseba), je najmanj nepravično zahtevati odgovornost kreatorja za dejanja, ki jih je stroj naredil po osamosvojitvi.

Mal mešamo pojme osebne svobode, zasebne lastnine in so/odgovornosti. Če kreator zgubi lastninsko pravico nad kreaturo, ga to ne "odreši" tudi morebitnega ugotavljanja so/odgovornosti za njena dejanja. Če v svojo kreaturo vdelam kakšne čudne hibe, bo ta kreatura lahko vseno čisto svobodna, se samostojno odločala o sebi in ne bo moja lastnina. Ampak še vedno bom js kriv/odgvoren/zaslužen za njene hibe. Če zaradi te hibe ta moja kreatura povzroči kakšne neljube posledice - ja, odgovornost je TUDI na mojih ramenih. Del odgovornosti je seveda tudi na njenih, ker je samostojna oseba, ki se zaveda svojih dejanj. Kolk fejst, je pa stvar strokovnjakov da to ocenijo.

Če močno zahebam in nato sprevidim, da je moja kreatura pravzaprav hudo hudo nevaren psihopat, ga vseeno ne smem kr fentat ampak moram poskrbet da okolico zavarujem pred njim. Enako kot duševne bolnike ne zaplinjamo ampak imamo zaprte oddelke posebnih ustanov.

Kolk teško bi bilo ugotavljat so/odgovornost je tudi drugotnega pomena. Verjamem da sploh ne simpl, saj se še o definiciji zavesti ne mormo zanesljivo zmenit.

Če bi rad ustvaril SR morilca svojih sovražnikov, lahko pri ustvarjanju svojega SR v AI algoritme pač vgradiš močna negativna čustva do tvojih sovražnikov.

Seveda, in za takšno ravnanje in posledice takega ravnanja si zato so-odgovoren.

Treba se je namreč vprašati, kako sentientni robot (SR) sploh lahko nastane. Ga bo kdo namenoma razvil? Zakaj le, saj je na svetu že na milijarde sentientov.

Če je možen, ga bo slej ko prej nekdo spacal skupaj. Magari iz čistega dolgcajta ali firbca. Vsi tule obravnavani problemi bodo s tem postali realni. Žal ne vidim nobenega vzroka, zakaj SR ne bi bil možen. Saj smo samo avtomati, vse kar nucamo za izdelavo novega nam enakega avtomata je dovolj majhna pinceta, da sestavimo posamezne atome in molekule. Vprašanje časa.

Zato bi rekel, da je pri razvoju AI pravzaprav najbolj razumno veliko truda vložiti v to, da se iz AI ne bi razvil sentientni algoritem.

Mislim, da nisi prvi, ki je prišel do tega. :)

Nekako splošno velja, da se splača SAI skonstruirat v smislu klasičnega avtomata, ki po BIOSu ne bo zmogel imet nobenih zares lastnih želja ali idej. Vse mora bit le klasičen input -> output. V momentu ko tak sistem porodi lastne želje in vzgibe mamo največji problem vseh časov.

Trenutno je težava, da ni ravno jasno kdaj in kje se lahko takšne želje sploh sploh porodijo. Zaradi tega obstaja neničelna nevarnost, da se nam bo to zgodilo pač po nesreči. Zna bit, da bo tole glavni razlog da se bo ustvarilo nekaj namenskih samozavedujočih se mašin, zato da se bo lahko naštudiralo kako sploh do tega pride. In se jih bo pol enostavno fentalo in se delalo, kot da je vse lepo. Žrtev napredka pač. Ne bo prva.
Zbogom in hvala za vse ribe

tsh2 ::

če se bo nekega robota dalo znova ustvariti, potem njegovo uničenje ne bo umor, ker ga bodo znanstveniki lahko kadarkoli priklicali nazaj k življenju. mogoče bo kategorizirano kot kakšna ugrabitev.

če pa bo robota nemogoče znova ustvariti, ker si je nabral unikatne izkušnje in spomine in se še čustveno močno navezal na določene ljudi in ti ljudje na njega, potem bo to umor.

predvsem pa je to, ali bodo ljudje uničenje roboto imeli za umor ali ne, odvisno od tega, ali bodo ti roboti dovolj razviti, da se bodo ljudje lahko dovolj poistovetili z njimi oz. se postavili v njihovo kožo.

če bodo roboti na stopnji razvoja živali, potem se človek ne bo mogel tako poistovetiti z njimi. če pa bodo roboti razumeli zelo zapletene človeške stvari, potem pa se je z njimi lažje poistovetiti. če bi se z živalmi lahko pogovarjali o čemerkoli bi nedvomno dobile enake pravice kot ljudje. za to se gre: smiseln pogovor o čemerkoli, da te robot razume + da ima še čustva in unikatne spomine. potem bo njegovo uničenje nedvomno umor. mogoče je tole dober test, ali je robot dovolj človeško inteligenten ali ne: če ti je nerodno biti nag pred njim je, drugače ni. pred živalmi nam ni nerodno, pred ljudmi pa je. ali pa kakšen podoben test, ki vsebuje čustva sramežljivosti. pred živalmi nam ni čisto nič nerodno delati, pred ljudmi pa veliko stvari.

če bo človeštvo dovolj inteligntno, da bo ustvarilo tako pametne robote, bo najbrž tudi dovolj inteligentno, da jim bo dalo pravice, ki jim bodo logično šle. najbrž človeštvo takrat ne bo tako več tako primitivno kot civilizacije, ki so imele sužnje.

Pyr0Beast ::

če se bo nekega robota dalo znova ustvariti, potem njegovo uničenje ne bo umor, ker ga bodo znanstveniki lahko kadarkoli priklicali nazaj k življenju. mogoče bo kategorizirano kot kakšna ugrabitev.
Hmm, memory thieves. Skoraj dobro za roman :)

Zdaj, uboj nekoga s strani robota bi bil lahko vedno klasificiran kot slabo kodiranje (pomanjkanje varnostnih mehanizmov).

Sicer bo ta postopek asimilacije potekal zagotovo preko 'robotskih' ljubljenčkov, kot nadomestki za prave živali, na katere se bodo ljudje prvo (čustveno) navadili.
Some nanoparticles are more equal than others

Good work: Any notion of sanity and critical thought is off-topic in this place

BlueRunner ::

No tu moram pa tudi BlueRunnerja popravit.
Glede zadnjega stavka: SR (sentientni robot) nima le razuma, ampak tudi čustva. Slednja lahko zameglijo razumsko odločanje - pri ljudeh je tako, zakaj ne pri SR? Če bi rad ustvaril SR morilca svojih sovražnikov, lahko pri ustvarjanju svojega SR v AI algoritme pač vgradiš močna negativna čustva do tvojih sovražnikov.


Lahko jih. Ampak to bi IMHO pomenilo enako odgovornost zate, kot je v tem trenutku odgovornosti npr. enega starša, ki v otroka vcepi slepo sovraštvo do drugega starša. Če tak otrok zagreši zločin, bo del krivde zagotovo nosil tudi tisti, ki ga je naredil za tovrstnega invalida.

Seveda lahko najdemo množico primerov, ko imaš lahko neodvisno osebo, ki je sposobna delovati v naši družbi, hkrati pa je nevarna tempirana bomba. Npr. sociopati, psihopati, osebe z bipolarno motnjo, ... Patologija je tukaj kar obiširna. Mislim pa, da je razmerje med staršem in potomcem nekako primerljivo z razmerjem stvaritelj - umetno ustvarjena zavest. Bolj kot bo takšna stvaritev namerno "prizadeta", večja bo teža odgovornosti na strani stvaritelja. Bolj, kot bo stvaritev v svojem razmišljanju in morda celo čustvovanju blizu človeku, večja bo verjetnost, da jo bomo na koncu dejansko spoznali kot novo obliko "življenja".

Zato bi rekel, da je pri razvoju AI pravzaprav najbolj razumno veliko truda vložiti v to, da se iz AI ne bi razvil sentientni algoritem. Če je možno, je torej najbolj pametno poskusiti v osnovne algoritme za AI vsaditi mehanizme, ki bi morebiten razvoj umetne sentience v kali zatrli.

Tukaj si bi upal stopiti še korak dlje. Če se nam zavestno bitje "zgodi po naključju", potem je skoraj gotovo, da bo uničeno tako neusmiljeno in brez vprašanja, kot se uniči narobe delujočo napravo. Zagotovo pa takšne "emerging" zavesti realno ne bodo mogle razumeti kaj več, kot pa svojega obstoja. Pravice zavesti v odnosu na pravice oseb bodo za takšno novorojeno zavest verjetno popolna neznanka.

Kaj pa če takšne "emerging" zavesti sploh ne bomo prepoznali, temveč si jo bomo razlagali kot preprosto nepravilno delovanje programa. Kot takšno jo bomo seveda brez razmisleka takoj uničili. Bizaren primer: robot - raketa nenadoma sredi leta "ugotovi", da bo prinesla uničenje nedolžnim ljudem. Zato se deaktivira (disarm). Lastnik rakete je bo seveda razglasil za nepravilno delujočo (malfunctioning) in jo bo po kratkem postopku nevtraliziral - uničil njen blisk zavesti.

Mislim, da imajo edino realno možnost preživetja tiste zavesti, ki jih bomo sami zavestno (sic!) skonstruirali. Skonstruirali in poslali v družbo, ki bo za njih že imela pripravljena pravila.

O čemu sanjajo roboti?

imagodei ::

username> "Namreč, človeku pravice niso podeljene. Z njimi se rodiš in pika. So absolutne in nihče ne sme tebi jemati teh pravic, po drugi strani zato tudi ni nihče pristojen, da ti jih daje. Ker jih imaš avtomatsko. Zato sploh ni primerno govoriti o podeljevanju pravic ljudem. "

Je bilo že odgovorjeno na to, pa vseeno: Ja, tako piše v zakonih in v deklaraciji človekovih pravic. Pa vseeno so te pravice zgolj podeljene in niso absolutne. Da jih v tem obdobju v naši družbi tako dojemamo, je zgolj družbeni konsenz. Trenutna etična načela. Točno tako, kot v Sloveniji "verjamemo", da je življenje nedotakljivo in zato tudi država nima pravice vzeti življenja. Niti pri najhujših zločinih ne. V ZDA pa ni tako. Družben konsenz.

Talibanu, ki bo talcu rezal proč glavo pri živem telesu, bo prav malo mar, da ima njegova žrtev "absolutne in neodtujljive pravice". Njemu se pač zdi, da je njegova od boga dana pravica ta, da pobija nevernike.

IOW, če ti ni mar kaj piše na kosu papirja, potem pravice soljudi hitro lahko postanejo zbirka floskul.
- Hoc est qui sumus -

imagodei ::

username> "Recimo da ustvariš in zalaufaš sentienten stroj, pa šele po njegovem zagonu zaslutiš, da nekaj si v programu zašuštral ter da se bo stroj dokaj verjetno obrnil proti tebi in te morda ubil (ali pa koga drugega) - ali ga smeš proti njegovi volji izklopiti in modificirati program?"

Dokler ta stroj ni pravno priznan kot oseba - brez problema. Ko je enkrat priznan, imaš velik problem. Velikih odločitev pač ne sprejemaš zlahka. Če si sentientu dal vse pravice, ki pritičejo osebi in pred tem nisi preveril, da je dejansko zavestno bitje, ki je sposobno samorefleksije, ima svobodno voljo in se tudi samo zaveda posledic svojih dejanj - well, tough luck.


username> "Denimo, da si ustvaril sentienten stroj - robota, ki je sedaj dobil pravice in postal oseba itd. Skratka, ni več tvoj stroj, ampak samo svoja svobodna oseba.
Potem pa začne delati hude zločine (pobija itd) in izkaže se, da je kriv prvotni program, ki si ga ti napisal za tega robota.
Kdo je sedaj odgovoren za nastali kažin? Ustvarjalec stroja ali svobodni stroj sam?"


Spet - mislim, da je pravo vprašanje to, ali si pred podelitvijo pravic naredil domačo nalogo. IOW, ali si preveril njegovo kodo in naredil vse, da eliminiraš takšnele scenarije. Podeljevanja pravic, ki pritičejo osebam ne vidim kot nekakšne formalnosti; npr. kot pridobivanje državljanjstva. Zaradi same narave stroja in točno tega, na kar opozarjaš ti, bi vsak (človeško ustvarjen) sentient moral preko relativno dolge procedure.
- Hoc est qui sumus -

imagodei ::

username> "Skregam se z enim človekom in mi gre tako na jetra, da ga hočem ubiti. Pa ustvarim sentientnega robota in vanj naskrivaj vgradim mehanizem, ki bo povzročil, da bo tudi moj robot skrajno sovražil tega človeka. Ko robota dokončam, se mu zaradi njegove "sofisticiranosti" in "sentience" prizna, da ima pravice in je samo svoja svobodna oseba. Nato le še počakam, da gre robot fentat mojega sovražnika.
Evo, sem se znebil svojega zoprnika, vsega pa bo kriv sentientni robot. Ni mi treba lastnoročno ubijati, celo ne najemati poklicnega morilca.
V bistvu lahko s tem nekoga ubijem in me nihče ne bo mogel kaznovati.
Tudi do tega lahko pripelje priznavanje pravic strojem. "


V bistvu, če se je robotu nekoč že priznalo, da ima svobodno voljo, da se zaveda posledic svojih dejanj in da loči prav od narobe ter s tem izpolnjuje neke predpisane norme da postane spoznan kot samosvoja svobodna oseba z vsemi pravicami, ob enem pa je ta kos programske kode ušel pregledu revizije, potem ja... Lahko pride do tega.

Ampak stvari so malo bolj zakomplicirane in niso črno bele. Že sedaj, ko menda med nami ni zavestnih robotov, lahko pri ljudeh dosežeš take rezultate: pranje možganov, psihološka manipulacija, hipnoza... Če bo tako zmanipuliran človek na podlagi tvojih napotkov ubil nekoga, ki ti gre na živce, se ti seveda zlahka izogneš kazni.

V obeh primerih pa bi morda pristojni preiskovalci postali pozorni, če bi bil človek/sentient, obtožen za umor, sicer povsem običajna oseba, niti listka za napačno parkiranje in če bi se izrekla, da sta ravnala proti svoji volji, kot bi ju nekaj vodilo. Pri človeku bi mogoče razširili preiskavo, pri sentientu pa bi bilo še lažje - ponovna revizija programa.
- Hoc est qui sumus -
1
2
3 4 5


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Razvijalci umetne inteligence za prepoved avtonomnih orožij (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
5514450 (12317) nevone
»

Korenine človekovih pravic

Oddelek: Problemi človeštva
101985 (1715) Barakuda1
»

"Liberalizem" (strani: 1 2 3 )

Oddelek: Loža
1287341 (6246) Thomas

Več podobnih tem