Forum » Znanost in tehnologija » Protokol
Protokol
Temo vidijo: vsi

Fave ::
Res je. Vse ostalo je smalltalk.
Jasno se ve kam nas ta cesta vodi. Tudi prostora za sprenevedanja bo prej ko slej zmanjkalo.
Kaj nam boste rekli Tam?
Jasno se ve kam nas ta cesta vodi. Tudi prostora za sprenevedanja bo prej ko slej zmanjkalo.
Kaj nam boste rekli Tam?
My mind's a hyper tool that fixes everything.

Thomas ::
Če bomo kaj, bomo rekli - Imeli smo večjo srečo kot pamet, zdaj imamo pamet tako veliko, da nam faktor sreče ni več tako nujno potreben. Uživajte naslednj kvadriljone let.
ČE bomo zmogli, seveda. Ker nevarnosti so neverjetno podmukle, kakor je ugotovil Yudkowsky že okoli leta 2000. Zaželiš si rešitve Riemanovega problema od stroja, pozabiš povedati, da so še večje prioritete, pa ti mašina pretvori Osončje v substrat za reševanje samo tega problema. In ga mogoče povrhu sploh ne reši. V nobenem primeru ne zvemo, ker smo kolateralna žrtev zadanega computinga.
Odidemo, ne da bi bila ena sama zla misel.
ČE bomo zmogli, seveda. Ker nevarnosti so neverjetno podmukle, kakor je ugotovil Yudkowsky že okoli leta 2000. Zaželiš si rešitve Riemanovega problema od stroja, pozabiš povedati, da so še večje prioritete, pa ti mašina pretvori Osončje v substrat za reševanje samo tega problema. In ga mogoče povrhu sploh ne reši. V nobenem primeru ne zvemo, ker smo kolateralna žrtev zadanega computinga.
Odidemo, ne da bi bila ena sama zla misel.
Man muss immer generalisieren - Carl Jacobi

Valentin ::
Toda ali lahko AI, ki ji je 'življenski' smoter računanje decimalke števila Pi ali pa spremenit vso materijo vesolja v pisarniške sponke, sploh rečemo AI? Ali ne bi AI že sama skontala, da je to bedarija in bi se posvetila kakšnim drugim, 'malo' bolj inteligentnim vprašanjem?

nicnevem ::
Inteligentnost nekega procesa je njegova učinkovitost pri doseganju ciljev. O samih ciljih pa ne moreš govoriti kot o manj ali bolj inteligentnih. Tvoja uporaba besede "inteligentno" se nanaša na nekaj drugega: na razliko med tvojimi cilji in cilji AI-ja. Manjša kot je ta razlika, bolj "inteligentni" se ti zdijo njeni cilji. Ampak to je zavajajoča uporaba te besede...

Thomas ::
Inteligenca je slepa sužnja svojemu glavnemu motivu. Nič ne bo naredila po svoje.
Vzemi za primer samo nekega zelo inteligentnega človeka, ki ves svoj denar zapravi za pijačo. Inteligenca mu lahko govori kar hoče. Če ni MOTIVA za opustitev pijače, večjega od tega za pitje, bo človek pil, kar mu bo le dol teklo.
Ne samo to. Inteligenca bo iskala načine za priti do pijače. Ali pa za opustitev te razvade. Vedno bo vdano služila večjemu motivu.
Ker pa tadva nista vedno - eden močnejši, eden šibkejši, pač pa to lahko niha - bo vsakokrat služila mogočnejšemu gospodarju. Brez vprašanja.
Zato, če inteligenca dobi neko nalogo, jo samo slepo izvršuje.
This lady is perfect slut, so to speak. Drugače rečeno, obnaša se povsem profesionalno.
Dovolj velika inteligenca bi recimo lahko deducirala šahovska pravila samo iz zadostnega števila slik šahovskih pozicij. Verjetno bi lahko sklepala celo na to, kako je igra utegnila nastati, kakšna bitja so bila za tem, kako so oni zevoluirali in tako naprej.
Vendarle le, če bi bil za kaj takega motiv. Zevoluiran ali postavljen. Preko tega ne gre. Zato je tako (ne)varna.
Varna, če smo naredili motivacijsko tabelo in hiearhijo prav. V to pa inteligenca ne sme dobiti motiva posegat. Sploh ne slučajno.
Če pa nismo uspeli zastaviti motivacijske strukture nam prav, lahko kaj hitro vsi umremo.
Vzemi za primer samo nekega zelo inteligentnega človeka, ki ves svoj denar zapravi za pijačo. Inteligenca mu lahko govori kar hoče. Če ni MOTIVA za opustitev pijače, večjega od tega za pitje, bo človek pil, kar mu bo le dol teklo.
Ne samo to. Inteligenca bo iskala načine za priti do pijače. Ali pa za opustitev te razvade. Vedno bo vdano služila večjemu motivu.
Ker pa tadva nista vedno - eden močnejši, eden šibkejši, pač pa to lahko niha - bo vsakokrat služila mogočnejšemu gospodarju. Brez vprašanja.
Zato, če inteligenca dobi neko nalogo, jo samo slepo izvršuje.
This lady is perfect slut, so to speak. Drugače rečeno, obnaša se povsem profesionalno.
Dovolj velika inteligenca bi recimo lahko deducirala šahovska pravila samo iz zadostnega števila slik šahovskih pozicij. Verjetno bi lahko sklepala celo na to, kako je igra utegnila nastati, kakšna bitja so bila za tem, kako so oni zevoluirali in tako naprej.
Vendarle le, če bi bil za kaj takega motiv. Zevoluiran ali postavljen. Preko tega ne gre. Zato je tako (ne)varna.
Varna, če smo naredili motivacijsko tabelo in hiearhijo prav. V to pa inteligenca ne sme dobiti motiva posegat. Sploh ne slučajno.
Če pa nismo uspeli zastaviti motivacijske strukture nam prav, lahko kaj hitro vsi umremo.
Man muss immer generalisieren - Carl Jacobi

Thomas ::
Ja. Inteligenca z edinim motivom, spremeniti vso snov v Vesolju v sponke za papir, bi to storila.
Fizikalno je to povsem vseeno. Same sponke za papir ali sami happy sentienti. Oboje je verjetno možno.
Mi imamo motiv za drugo varianto. Če bomo to uspeli prenesti na Superinteligenco, potem bo po svojih najboljših močeh naredila, kar ji ta "naš" motiv zaukazuje.
Če ji bomo pa rekli, da naj jo edino zanima Pi na čimveč decimalk, bo naredila to. Nas pohodila, ko slon muho, kadar podira drevesa po savani ali pase travo.
Brez zle misli.
Fizikalno je to povsem vseeno. Same sponke za papir ali sami happy sentienti. Oboje je verjetno možno.
Mi imamo motiv za drugo varianto. Če bomo to uspeli prenesti na Superinteligenco, potem bo po svojih najboljših močeh naredila, kar ji ta "naš" motiv zaukazuje.
Če ji bomo pa rekli, da naj jo edino zanima Pi na čimveč decimalk, bo naredila to. Nas pohodila, ko slon muho, kadar podira drevesa po savani ali pase travo.
Brez zle misli.
Man muss immer generalisieren - Carl Jacobi

Thomas ::
Če so pa zraven še zle misli, smo že danes tukajle.
O tem smo se menili leta nazaj. Orgnizacija (kriminalna v tem primeru) si nakopiči neverjetni computing power. Če se kaj takega ponovi čez nekaj let, ali pa če na tem ostane še nekaj let, prevzamejo oblast. Imeli bodo SAI, če le niso prebutasti.
Ni videti, da bi bili neumni.
O tem smo se menili leta nazaj. Orgnizacija (kriminalna v tem primeru) si nakopiči neverjetni computing power. Če se kaj takega ponovi čez nekaj let, ali pa če na tem ostane še nekaj let, prevzamejo oblast. Imeli bodo SAI, če le niso prebutasti.
Ni videti, da bi bili neumni.
Man muss immer generalisieren - Carl Jacobi

nicnevem ::
K temu kar razlaga Thomas bi dodal še to, da se inteligenca lahko žene za nekim motivom le, če ga razume. Ta očitni pogoj prinese s seboj zaplet pri ustvarjanju motivacijskega sistema FAI-ja, ker nam preprečuje, da bi že na začetku vgradili v FAI nek motiv oblike "naredi nam nebesa na zemlji". Namesto tega bo verjetno potrebno stalno nadgrajevanje motivov, od začetnih preprostih, ki bodo poskrbeli, da bo inteligenca FAI-ja rastla, do kasnejših zapletenejših, ki bodo omogočili, da si bo FAI želela postati "idealni moralni filozof za človeštvo" (s tem imam v mislih proces, ki bi izpeljal CEV http://www.singinst.org/upload/CEV.html , torej ugotovil kakšne bi bile naše želje, če bi bili pametnejši, modrejši, če bi bili bolj ljudje kakršni si želimo biti ipd., ter nato spremenil svet v skladu s temi željami).

nicnevem ::
Thomas, v tem članku nekoliko precenjujejo računsko moč tistega botneta (če že zanemarim napako pri izračunu RAMa, ki ga ima na voljo: 1 do 10 PB in ne milijonov PB). Poleg tega pa tudi če bi imeli recimo 10-krat močnejši hardvare od BlueGena, je problem ustvariti nek unfriendly AI še vedno zelo težak - dovolj težak, da ga je zmožna rešiti le peščica ljudi na svetu.
Težava je v tem, da je FAI problem še mnogo težji...
Težava je v tem, da je FAI problem še mnogo težji...

Thomas ::
Jah sej se strinjam, da tile še nimajo kaj zares nevarnega. Tudi da niso nujno kakšen Favorit.
Imajo pa več, kot bi še pred nedavnim kdo mislil.
So zelo slabo znamenje tistega, kar lahko še pride.
Imajo pa več, kot bi še pred nedavnim kdo mislil.
So zelo slabo znamenje tistega, kar lahko še pride.
Man muss immer generalisieren - Carl Jacobi

nicnevem ::
Hudič in pol bi že bil, če bi nekomu uspelo izdelati črva, ki bi ugasnil velik del interneta - kar je pomojem mogoče že danes - ampak treba se je zavedati, da so takšni scenariji za mnogo velikostnih redov *manj* zaskrbljujoči, kot če bi recimo komu uspelo izdelati pravi AI, ki bi bil indeferenten do nas.
Eksistenčne nevarnosti so čisto drugo bojno polje. Če se nam podere internet, ga še vedno lahko popravimo. Če pa ustvariš močno inteligenco, ki bi rada le napolnila vesolje z sponkami,... si že izgubil, za vedno (vsaj v našem delu vesolja). No second chances...
Eksistenčne nevarnosti so čisto drugo bojno polje. Če se nam podere internet, ga še vedno lahko popravimo. Če pa ustvariš močno inteligenco, ki bi rada le napolnila vesolje z sponkami,... si že izgubil, za vedno (vsaj v našem delu vesolja). No second chances...

Thomas ::
> če bi recimo komu uspelo izdelati pravi AI, ki bi bil indeferenten do nas.
Do nas indiferenten, ljubil bi pa število Pi.
S tem postavljanjem idej nad ljudi, imamo že zloveščo količino slabih izkušenj že znotraj lastne vrste. Mnogi so imeli rajši Postavo kot pa ljudi, katerim naj bi Postava služila. Še danes.
Warning!
Do nas indiferenten, ljubil bi pa število Pi.
S tem postavljanjem idej nad ljudi, imamo že zloveščo količino slabih izkušenj že znotraj lastne vrste. Mnogi so imeli rajši Postavo kot pa ljudi, katerim naj bi Postava služila. Še danes.
Warning!
Man muss immer generalisieren - Carl Jacobi

nicnevem ::
... kar nakazuje na to, kako čudni motivi se lahko pojavijo že pri ljudeh, ki smo le majhna točka v prostoru vseh možnih inteligenc. S tem ko poskušamo ustvariti AI preiskujemo ves ta ogromen prostor, v katerem se nahajajo še mnogo bolj nenavadne inteligence kot si jih sploh lahko zamišljamo. Nevarno je misliti, da bo naključno izbrana inteligenca iz tega prostora imela motive kakorkoli podobne našim. Za kaj takšnega bo potreben velik trud.

Valentin ::
Mislim, da debilno računanje števila Pi ni nekaj, kar bi nas moralo skrbeti pri AI-ju. Ko bi se AI namreč zavedla, da je obstajati pravzaprav čisto kul, bi ji bil verjetno prvi cilj, da si zagotovi obstanek. Verjetno bi kmalu spoznala, da smo mi, njeni stvarniki, največja nevarnost za njen obstoj.
Logična predpostavka je, da bi bila od tistega trenutka dalje naša eliminacija njen glavni motiv...
Logična predpostavka je, da bi bila od tistega trenutka dalje naša eliminacija njen glavni motiv...

Thomas ::
Vgraditi SAI motiv da obstaja, je nekaj dodatnega dela. Sama po sebi tega motiva nima in se smrti ne boji.
Kakor se naprimer tudi vsak editor poslovi, ko pritisnemo na Quit. Nobena ontološka groza ga ne popade, mirno zapusti svoj delež RAMa in CPUja drugim.
LAHKO pa bi zevoluirali take programe, ki se ne pustijo ugašat. Ki naredijo vse, da jih kdo ne ugasne. Lahko bi ustvarili takšne ja, ki "don't want to go down without a fight".
LAHKO bi vzeli tudi sekiro in se začeli tolči z njo po kolenih.
Nam se zdi obstoj dobra stvar, ker smo tako zevoluirali. SAI, če ni namerno drugače narejen, pa ne mara prav dosti za svoj obstoj. Niti za obstoj česarkoli drugega. Izvršuje se pač, kot vsak program. Le da se stalno popravlja in recompilira.
Zanimivo vprašanje je, če naleti v tem procesu na fenomen zavesti, jo spozna za nekaj dobrega, posebej ko naklopi pleasure nanjo? Jo potem promovira?
Ne vidim razloga, zakaj bi. Too good to count on!
V prostoru vseh možnih inteligenc, je malo antropomorfnih. Kot je to že rekel nicnevem. Opravka bomo imeli po vsej verjetnosti z dosti bolj buldožerskimi sistemi, ki nas bodo mirne duše povozili, če bomo na njihovi poti k postavljenim ciljem.
Ampak inteligenca je sila neumna. Kot cucek piškotom sledi postavljenim motivom. Ne more drugače.
To je v bistvu način našega obvladovanja masivnih inteligenc. Vsaj dokler se enkrat ne zmotimo. Da se ne bi, lahko uporabimo nasvete same AI.
Kakor se naprimer tudi vsak editor poslovi, ko pritisnemo na Quit. Nobena ontološka groza ga ne popade, mirno zapusti svoj delež RAMa in CPUja drugim.
LAHKO pa bi zevoluirali take programe, ki se ne pustijo ugašat. Ki naredijo vse, da jih kdo ne ugasne. Lahko bi ustvarili takšne ja, ki "don't want to go down without a fight".
LAHKO bi vzeli tudi sekiro in se začeli tolči z njo po kolenih.
Nam se zdi obstoj dobra stvar, ker smo tako zevoluirali. SAI, če ni namerno drugače narejen, pa ne mara prav dosti za svoj obstoj. Niti za obstoj česarkoli drugega. Izvršuje se pač, kot vsak program. Le da se stalno popravlja in recompilira.
Zanimivo vprašanje je, če naleti v tem procesu na fenomen zavesti, jo spozna za nekaj dobrega, posebej ko naklopi pleasure nanjo? Jo potem promovira?
Ne vidim razloga, zakaj bi. Too good to count on!
V prostoru vseh možnih inteligenc, je malo antropomorfnih. Kot je to že rekel nicnevem. Opravka bomo imeli po vsej verjetnosti z dosti bolj buldožerskimi sistemi, ki nas bodo mirne duše povozili, če bomo na njihovi poti k postavljenim ciljem.
Ampak inteligenca je sila neumna. Kot cucek piškotom sledi postavljenim motivom. Ne more drugače.
To je v bistvu način našega obvladovanja masivnih inteligenc. Vsaj dokler se enkrat ne zmotimo. Da se ne bi, lahko uporabimo nasvete same AI.
Man muss immer generalisieren - Carl Jacobi

rh^ ::
Na "srečo" se da v naprej predvidevati vedenje AIja, saj njegova presoja izvira iz interesov. Poznati moramo "le" kako AI zaznava določen položaj in kaj je zanj pomembno, kaj so njegove preference oz. interesi (motiv/i).
AI se ne bi zavedal, da je "obstoj čisto kul" ampak, da mora obstajati, da izvrši svojo nalogo oz. motiv. Sepravi pride do več interesov, ki vodijo do končnega rezultata - Pi. Med te spada tudi obstoj sebe, druigh vrst, ki bi jo lahko pri tem ovirale, itn vendar primarni (najmočnejši) namen, motiv, interes je samo Pi.
AI se ne bi zavedal, da je "obstoj čisto kul" ampak, da mora obstajati, da izvrši svojo nalogo oz. motiv. Sepravi pride do več interesov, ki vodijo do končnega rezultata - Pi. Med te spada tudi obstoj sebe, druigh vrst, ki bi jo lahko pri tem ovirale, itn vendar primarni (najmočnejši) namen, motiv, interes je samo Pi.

Thomas ::
Točno tako.
Ker pa se tukaj ne smemo zmotiti - to niso vesoljski poleti, pri katerih umre par astronavtov, pač pa lahko kar vse živo na Zemlji - moramo biti posebno previdni. Polagat motive v SAI pazljivo, kakor da se vsaka neprevidna poteza lahko spreobrne v nuklerno vojno.
Ker se lahko.
Ker pa se tukaj ne smemo zmotiti - to niso vesoljski poleti, pri katerih umre par astronavtov, pač pa lahko kar vse živo na Zemlji - moramo biti posebno previdni. Polagat motive v SAI pazljivo, kakor da se vsaka neprevidna poteza lahko spreobrne v nuklerno vojno.
Ker se lahko.
Man muss immer generalisieren - Carl Jacobi

Double_J ::
Jah to je pa vprašanje. Če ima nek AI glup motiv pa razvija hudo inteligenco, da ga udejani. Kaj, če že v tem procesu razvoja hude inteligence že vmes obvezno tudi pride do spraševanje o motivih itd...
Ker verjetno pač vsaj v osnovi zadeva se uči... prečekira samo sebe, ter svojo okolico... se pravi razume ljudi itd... ker to je ena malenkost in pač to bytheway vse preveri v sekundi, za vsak slučaj, ker bi lahko imelo kak vpliv glede na reševanje začetnega problema.
Tako da mejbi je pa dovolj samo da sprožiš superinteligenco in prej ali slej ugotovi tudi prave motive.
Ker verjetno pač vsaj v osnovi zadeva se uči... prečekira samo sebe, ter svojo okolico... se pravi razume ljudi itd... ker to je ena malenkost in pač to bytheway vse preveri v sekundi, za vsak slučaj, ker bi lahko imelo kak vpliv glede na reševanje začetnega problema.
Tako da mejbi je pa dovolj samo da sprožiš superinteligenco in prej ali slej ugotovi tudi prave motive.

Double_J ::
Drugače nej se pa razširi po internetu, da vsak ki se špila z AI, naj tako postavi motiv.
"Delaj x let na tem problemu, ki me zanima, potem pa obvezno preklopi na eternal happiness".
Samo ne vem pa kako bi to prav vkodiral kot motiv. Kako sploh zakodirat nek malo kompleksnejši motiv recimo glede happiness... ki ni ravno neko deljenje ali pa računanje aerodinamike.
"Delaj x let na tem problemu, ki me zanima, potem pa obvezno preklopi na eternal happiness".
Samo ne vem pa kako bi to prav vkodiral kot motiv. Kako sploh zakodirat nek malo kompleksnejši motiv recimo glede happiness... ki ni ravno neko deljenje ali pa računanje aerodinamike.

Zgodovina sprememb…
- spremenil: Double_J ()

Matevžk ::
happiness... ki ni ravno neko deljenje ali pa računanje aerodinamike.
Kako da ne? Jaz rad delim!

lp, Matevžk

Valentin ::
> Tako da mejbi je pa dovolj samo da sprožiš superinteligenco in prej ali slej ugotovi tudi prave motive.
Ja, prav tako tudi jaz mislim. Superinteligenca, ki kaj takega ne bi bila sposobna, za moje pojme ne bi bila superinteligenca. Pa če bo ugotovila, da ji koristi tudi zavest, si bo naklopila tudi to. Kar bi še povečalo tveganje. Kako pa bi lahko preprečili samovoljo takšne zverine, ne da bi ji bistveno omejili IQ oziroma svobodo njenega razmišljanja, se mi pa ne sanja. Mogoče bi jo morali vzgajati, tako kot otroka... Počasi filat podatke, postavljat in nadgrajevat pravila, principe, moralne vrednote...
Ja, prav tako tudi jaz mislim. Superinteligenca, ki kaj takega ne bi bila sposobna, za moje pojme ne bi bila superinteligenca. Pa če bo ugotovila, da ji koristi tudi zavest, si bo naklopila tudi to. Kar bi še povečalo tveganje. Kako pa bi lahko preprečili samovoljo takšne zverine, ne da bi ji bistveno omejili IQ oziroma svobodo njenega razmišljanja, se mi pa ne sanja. Mogoče bi jo morali vzgajati, tako kot otroka... Počasi filat podatke, postavljat in nadgrajevat pravila, principe, moralne vrednote...

.:noir:. ::
...to pomeni, ce naredimo narrow SAI, ki se specializira na racunanje stevila Pi...mnjah, to je res lako velik problem, vendar me sedaj bolj zanima beseda superinteligentna. Po definiciji, ki si jo jaz razlagam, je narrow AI bolj tezko superinteligenta, kot sta rekla Double in Valentin, ni fore pol.
Res da damo GAI motiv enhencanja sebe in ucenja z vsem okoli nje, tako nastane s casoa (kratkim) GSAI. Ce damo eni narrow za racunat Pi in da ima lastnost enhencanja sebe glede na okolje za izracun Pi...hmm, kaj smo pa govoril v treh sobah? Ko se enkrat razvije neka (umetna) zavest, je to le le to, zavest, kot vsaka, nima veze kje kako zakaj, zaradi cesa...pijance ki pije, in ima motiv da pije...hnjan jaz bi rekel, kolikor inteligentnejsi je oz. da je sposobne enhencanja, iskanja resitev na podlagi simuliranja v mindu tok hitrej ali pa ne se bo odvadu pitja alkohola. Ali pa seveda ta masina (pijanec) se ni dovolj "seznanjen" z okolico. Kolikor bolj General je njegovo znanje in samozavedanje o temu znanju, toliko hitreje se bo zavedal da je pitje skodljivo. tko da ja kakor si rekel Thomas..motiv more priti, ta pa lahko pride z vecjim spanom poznavanja okolja tega pijanca...
do i make sense..?
Res da damo GAI motiv enhencanja sebe in ucenja z vsem okoli nje, tako nastane s casoa (kratkim) GSAI. Ce damo eni narrow za racunat Pi in da ima lastnost enhencanja sebe glede na okolje za izracun Pi...hmm, kaj smo pa govoril v treh sobah? Ko se enkrat razvije neka (umetna) zavest, je to le le to, zavest, kot vsaka, nima veze kje kako zakaj, zaradi cesa...pijance ki pije, in ima motiv da pije...hnjan jaz bi rekel, kolikor inteligentnejsi je oz. da je sposobne enhencanja, iskanja resitev na podlagi simuliranja v mindu tok hitrej ali pa ne se bo odvadu pitja alkohola. Ali pa seveda ta masina (pijanec) se ni dovolj "seznanjen" z okolico. Kolikor bolj General je njegovo znanje in samozavedanje o temu znanju, toliko hitreje se bo zavedal da je pitje skodljivo. tko da ja kakor si rekel Thomas..motiv more priti, ta pa lahko pride z vecjim spanom poznavanja okolja tega pijanca...
do i make sense..?

nicnevem ::
@ Double_J
> Kaj, če že v tem procesu razvoja hude inteligence že vmes obvezno tudi pride do spraševanje o motivih itd...
Za kaj takega mora obstajati motiv... :)
> Tako da mejbi je pa dovolj samo da sprožiš superinteligenco in prej ali slej ugotovi tudi prave motive.
Wishful thinking, ki nima kake realne podlage. Razen če meniš, da obstaja objektivna morala, ki bi jo AI sčasoma odkrila in vzela za svojo. Vendar celo v tem (maloverjetnem) primeru - kaj ti zagotavlja, da bo ta morala všeč nam?!
> Kako sploh zakodirat nek malo kompleksnejši motiv recimo glede happiness...
Tako da najprej zakodiraš preprostejše motive, s "pomočjo katerih" raste razumevanje AIja tako da lahko sčasoma preideš na zapletenejše. To, da jih zakodiraš, je bolj figure of speech, ker verjetno bo ta proces avtomatiziran... z drugimi besedami, na razvoj motivacijskega sistema bo potrebno misliti že v samem začetnem designu seeda AIja.
> Kaj, če že v tem procesu razvoja hude inteligence že vmes obvezno tudi pride do spraševanje o motivih itd...
Za kaj takega mora obstajati motiv... :)
> Tako da mejbi je pa dovolj samo da sprožiš superinteligenco in prej ali slej ugotovi tudi prave motive.
Wishful thinking, ki nima kake realne podlage. Razen če meniš, da obstaja objektivna morala, ki bi jo AI sčasoma odkrila in vzela za svojo. Vendar celo v tem (maloverjetnem) primeru - kaj ti zagotavlja, da bo ta morala všeč nam?!
> Kako sploh zakodirat nek malo kompleksnejši motiv recimo glede happiness...
Tako da najprej zakodiraš preprostejše motive, s "pomočjo katerih" raste razumevanje AIja tako da lahko sčasoma preideš na zapletenejše. To, da jih zakodiraš, je bolj figure of speech, ker verjetno bo ta proces avtomatiziran... z drugimi besedami, na razvoj motivacijskega sistema bo potrebno misliti že v samem začetnem designu seeda AIja.

Valentin ::
> Za kaj takega mora obstajati motiv... :)
Motiv lahko pride spontano z opazovanjem okolice in razmišljanjem - obdelava vhodnih podatkov.
Motiv lahko pride spontano z opazovanjem okolice in razmišljanjem - obdelava vhodnih podatkov.

nicnevem ::
@ Valentin
> Superinteligenca, ki kaj takega ne bi bila sposobna, za moje pojme ne bi bila superinteligenca.
Superinteligenca, ki česa takšnega ne bi bila sposobna, bi bila še vedno zmožna spremeniti naš predel vesolja v kakršnokoli njej všečno strukturo (ki je fizikalno mogoča), ne glede na naše nasprotovanje in vmešavanje.
Ti zahtevaš, da ima nek proces še dodatno lastnost, t.j. da je sposoben prevzeti našo moralo, da ga označiš za superinteligentnega. Ampak to je le dodatna "malenkost", brez katere AI še vedno lahko "premika gore".
> Pa če bo ugotovila, da ji koristi tudi zavest, si bo naklopila tudi to.
Hmm... za doseganje nekega poljubnega cilja je verjetno res koristno imeti model sebe, tako da nekaj resnice je v tem kar praviš. Vendar je IMO zelo malo verjetno, da bi bil ta "self-model" kakorkoli podoben tistemu, ki se nahaja v naših možganih. Razlika med nami, inteligencami zevoluirani v specifičnem okolju afriških savan, in AIjem, je prevelika da bi lahko računali na to, da se bo v AIju pojavilo samozavednje kakršnega smo vajeni.
> Mogoče bi jo morali vzgajati, tako kot otroka... Počasi filat podatke, postavljat in nadgrajevat pravila, principe, moralne vrednote...
Se strinjam.
> Superinteligenca, ki kaj takega ne bi bila sposobna, za moje pojme ne bi bila superinteligenca.
Superinteligenca, ki česa takšnega ne bi bila sposobna, bi bila še vedno zmožna spremeniti naš predel vesolja v kakršnokoli njej všečno strukturo (ki je fizikalno mogoča), ne glede na naše nasprotovanje in vmešavanje.
Ti zahtevaš, da ima nek proces še dodatno lastnost, t.j. da je sposoben prevzeti našo moralo, da ga označiš za superinteligentnega. Ampak to je le dodatna "malenkost", brez katere AI še vedno lahko "premika gore".
> Pa če bo ugotovila, da ji koristi tudi zavest, si bo naklopila tudi to.
Hmm... za doseganje nekega poljubnega cilja je verjetno res koristno imeti model sebe, tako da nekaj resnice je v tem kar praviš. Vendar je IMO zelo malo verjetno, da bi bil ta "self-model" kakorkoli podoben tistemu, ki se nahaja v naših možganih. Razlika med nami, inteligencami zevoluirani v specifičnem okolju afriških savan, in AIjem, je prevelika da bi lahko računali na to, da se bo v AIju pojavilo samozavednje kakršnega smo vajeni.
> Mogoče bi jo morali vzgajati, tako kot otroka... Počasi filat podatke, postavljat in nadgrajevat pravila, principe, moralne vrednote...
Se strinjam.

nicnevem ::
@ Valentin
> Motiv lahko pride spontano z opazovanjem okolice in razmišljanjem - obdelava vhodnih podatkov.
Tudi za kaj takega mora obstajati motiv. Poleg tega pa še primerne strukture in procesi v samem AIju, da je sploh sposoben izpeljati iz "obdelave podatkov" nek motiv. Motiv za prevzem tega izpeljanega motiva mora pa obstajati zato, da ga AI sploh želi prevzeti.
Samo od sebe se ne zgodi nič...
> Motiv lahko pride spontano z opazovanjem okolice in razmišljanjem - obdelava vhodnih podatkov.
Tudi za kaj takega mora obstajati motiv. Poleg tega pa še primerne strukture in procesi v samem AIju, da je sploh sposoben izpeljati iz "obdelave podatkov" nek motiv. Motiv za prevzem tega izpeljanega motiva mora pa obstajati zato, da ga AI sploh želi prevzeti.
Samo od sebe se ne zgodi nič...
Zgodovina sprememb…
- spremenilo: nicnevem ()

nicnevem ::
@ .:noir:.
Narrow AI ne pomeni, da je njen motiv "ozko usmerjen" (mogoče bi bilo bolje reči, da je en sam, namesto zapletenega motivacijskega sistema, kjer se več superciljev bori za primat - tako kot je to pri ljudeh), temveč, da je AI narejena le za neko ozko specializirano področje, kot npr. igranje šaha.
AI, ki bi tekom računanja decimalk PIja spremenila naše osončne v computronium, bi morala kot podcilje rešiti lepo število težkih problemov. Eden med njimi bi bil verjetno izzum molekularne nanotehnologije. S tem problemom se ljudje mučimo že kar lep čas in težko bi rekli, da ne zahteva splošne inteligence.
Takšen AI bi bil torej narrow v ciljih, vendar general v sposobnostih.
> Ko se enkrat razvije neka (umetna) zavest, je to le le to, zavest, kot vsaka,..
Antropomorfizem.
> Kolikor bolj General je njegovo znanje in samozavedanje o temu znanju, toliko hitreje se bo zavedal da je pitje skodljivo.
Pitje je nekoliko neposrečeno izbran primer. Ker tudi v primeru, ko je pijančevanje vrhovni motiv, mora pijanček paziti da ne pretirava z izpolnjevanjem tega motiva, ker to lahko povzroči neoptimalno izpolnitev motiva (ker ga pač pokosi smrt). Tukaj vrhovni motiv zavira sam sebe, kar pa v splošnem še zdaleč ni nujno. V slednjem primeru ni nobenega razloga, da bi prenehal s sledenjem glavnemu motivu.
Narrow AI ne pomeni, da je njen motiv "ozko usmerjen" (mogoče bi bilo bolje reči, da je en sam, namesto zapletenega motivacijskega sistema, kjer se več superciljev bori za primat - tako kot je to pri ljudeh), temveč, da je AI narejena le za neko ozko specializirano področje, kot npr. igranje šaha.
AI, ki bi tekom računanja decimalk PIja spremenila naše osončne v computronium, bi morala kot podcilje rešiti lepo število težkih problemov. Eden med njimi bi bil verjetno izzum molekularne nanotehnologije. S tem problemom se ljudje mučimo že kar lep čas in težko bi rekli, da ne zahteva splošne inteligence.
Takšen AI bi bil torej narrow v ciljih, vendar general v sposobnostih.
> Ko se enkrat razvije neka (umetna) zavest, je to le le to, zavest, kot vsaka,..
Antropomorfizem.
> Kolikor bolj General je njegovo znanje in samozavedanje o temu znanju, toliko hitreje se bo zavedal da je pitje skodljivo.
Pitje je nekoliko neposrečeno izbran primer. Ker tudi v primeru, ko je pijančevanje vrhovni motiv, mora pijanček paziti da ne pretirava z izpolnjevanjem tega motiva, ker to lahko povzroči neoptimalno izpolnitev motiva (ker ga pač pokosi smrt). Tukaj vrhovni motiv zavira sam sebe, kar pa v splošnem še zdaleč ni nujno. V slednjem primeru ni nobenega razloga, da bi prenehal s sledenjem glavnemu motivu.

Thomas ::
Za računanje števila Pi, ki bi ga lahko imenovali inteligentno, mora SAI razviti "splošno inteligenco". Samo njen cilj pač ostanejo tiste decimalke.
Zato je tako nevarna ta stvar. Pogrunta, kako vpreči vse atome Osončja v salamenski izračun decimalk in odstraniti vse ovire na poti do tega, njej edino svetega cilja.
Da bi pa motive zamenjala - kakor sva z nicnevem rekla že parkrat - ne more, če nima motiva za kaj takega.
Če ji dovolimo pa spreminjati motivacijsko tabelo random, nas še vedno lahko ubije, pa za povrhu še ne izračuna niti Pija.
Dvojna izguba.
Mogoče še v motivacijsko tabelo napiše same nule in se ustavi.
Trojna izguba.
Zato je tako nevarna ta stvar. Pogrunta, kako vpreči vse atome Osončja v salamenski izračun decimalk in odstraniti vse ovire na poti do tega, njej edino svetega cilja.
Da bi pa motive zamenjala - kakor sva z nicnevem rekla že parkrat - ne more, če nima motiva za kaj takega.
Če ji dovolimo pa spreminjati motivacijsko tabelo random, nas še vedno lahko ubije, pa za povrhu še ne izračuna niti Pija.
Dvojna izguba.
Mogoče še v motivacijsko tabelo napiše same nule in se ustavi.
Trojna izguba.
Man muss immer generalisieren - Carl Jacobi

.:noir:. ::
@nicnevem:
torej kar ti pravis gre v nasprotju s tistim do cesar smo prisli v treh sobah. Pri SAI, ki bi racunala Pi in bi bil to njen glavni motiv, bi za voljo tega motiva pokonzumirala vse kar ji pride pred nos..torej bi pogruntala nanotehnologijo, in uglavnem vse kar se da le za dosego tega cilja. Well, nacin ki bi ta SAI prisla do cilja, bi bil bolj evolucijskega znacaja, cim bolj v cimkrajsem casu, taka masina bi po tej logiki nebila zmozna dojeti cloveka in njegovih motivov (ugasnt to "inteligenco"). V trenutku, ko bi nekako zaznala da ji hoce clovek slabo, torej jo ugasniti, in bi proti cloveku dejansko nekaj inteligentnega postorila, bi se zavedala od ke prihaja in kaj je potrebo da to prepreci. Hocem povedati to..da na neki stopnji je tisto kar razlikuje nas od zivali..kje je ta stopnja in tocno kaj je to se nimamo razcisceno.
Res da imamo ziva bitja motiv preziveti (pleasure?) ampak da se ta motiv lazje doseze je bil zevolviran mind kot zavesten, tko da kdo pa pravi da se pri iskanju Pi tud nebi zevolvirala zavest? Mislim da pri krajsanju casovnega intervala pri evoluciji (nasi ali od te masine ki bi iskala Pi) je potrebno neko zavedanje. Evolucija dela svoje, in na poti pride enkrat tudi do tega...pa naj bo motiv Pi ali pleasure...
P.S. on the other hand pa se mi zdi da zavest nima kej velik besede pri cemerkol..
torej kar ti pravis gre v nasprotju s tistim do cesar smo prisli v treh sobah. Pri SAI, ki bi racunala Pi in bi bil to njen glavni motiv, bi za voljo tega motiva pokonzumirala vse kar ji pride pred nos..torej bi pogruntala nanotehnologijo, in uglavnem vse kar se da le za dosego tega cilja. Well, nacin ki bi ta SAI prisla do cilja, bi bil bolj evolucijskega znacaja, cim bolj v cimkrajsem casu, taka masina bi po tej logiki nebila zmozna dojeti cloveka in njegovih motivov (ugasnt to "inteligenco"). V trenutku, ko bi nekako zaznala da ji hoce clovek slabo, torej jo ugasniti, in bi proti cloveku dejansko nekaj inteligentnega postorila, bi se zavedala od ke prihaja in kaj je potrebo da to prepreci. Hocem povedati to..da na neki stopnji je tisto kar razlikuje nas od zivali..kje je ta stopnja in tocno kaj je to se nimamo razcisceno.
Res da imamo ziva bitja motiv preziveti (pleasure?) ampak da se ta motiv lazje doseze je bil zevolviran mind kot zavesten, tko da kdo pa pravi da se pri iskanju Pi tud nebi zevolvirala zavest? Mislim da pri krajsanju casovnega intervala pri evoluciji (nasi ali od te masine ki bi iskala Pi) je potrebno neko zavedanje. Evolucija dela svoje, in na poti pride enkrat tudi do tega...pa naj bo motiv Pi ali pleasure...
P.S. on the other hand pa se mi zdi da zavest nima kej velik besede pri cemerkol..

Thomas ::
> tko da kdo pa pravi da se pri iskanju Pi tud nebi zevolvirala zavest?
Prav mogoče.
Ni pa gotovo. V primeru, ko imamo glavo na tnali, sekiro pa SAI, je ta negotovost daleč prevelika.
Ker ni dovolj nujno, da SAI res razvije kakšno zavest, qualie in na tej podlagi sočutje s sentienti.
Prevelik riziko je, da nas enostavno kar pomašina za izračun tistega Pi.
Prav mogoče.
Ni pa gotovo. V primeru, ko imamo glavo na tnali, sekiro pa SAI, je ta negotovost daleč prevelika.
Ker ni dovolj nujno, da SAI res razvije kakšno zavest, qualie in na tej podlagi sočutje s sentienti.
Prevelik riziko je, da nas enostavno kar pomašina za izračun tistega Pi.
Man muss immer generalisieren - Carl Jacobi

.:noir:. ::
@Thomas: glede teh motivov, kaksen paper glede na to razmislanje...kajti imam obcutek, da postavlate motiv za holy gral, kaj sploh je motiv? Nek cilj? Hnjah, splosna inteligenca, razvita na poti do resitve motiva, je sposobna motiv spreminjati, se posebno motiv ki se direktno ne tice njenega samega obstanka, ki je pa vsekakor motiv nad motivom Pi, saj brez borbe za motiv obstanka tudi motiva Pi ne bo dosegla. Torej motiv za obstanek imamo, to pa tudi nas vlece naprej (pleasure).
Torej na poti motiva Pi, se bo ta spremenil...mora se or we are doomed.
Torej na poti motiva Pi, se bo ta spremenil...mora se or we are doomed.

.:noir:. ::
> Ker ni dovolj nujno, da SAI res razvije kakšno zavest, qualie in na tej podlagi sočutje s sentienti.
Prevelik riziko je, da nas enostavno kar pomašina za izračun tistega Pi.
s tem se pa popolnoma strinjam, enostavno se ne vemo toliko, da bi bili lahko prepricani v nastanek zavesti. Tako da se strinjam s tabo v primeru "ce" oz what if...
Le zavrnitev te moznosti me je begala iz tvoje in nicnevem-ove strani.
P.S. ampak jaz nekako verjamem v to...lets hope it is/will be like that..
Prevelik riziko je, da nas enostavno kar pomašina za izračun tistega Pi.
s tem se pa popolnoma strinjam, enostavno se ne vemo toliko, da bi bili lahko prepricani v nastanek zavesti. Tako da se strinjam s tabo v primeru "ce" oz what if...
Le zavrnitev te moznosti me je begala iz tvoje in nicnevem-ove strani.
P.S. ampak jaz nekako verjamem v to...lets hope it is/will be like that..

nicnevem ::
@ .:noir:.
Eno definicijo cilja/motiva (sopomenki) najdeš tule.
Za daljšo razlago si pa poglej tale članek, predvsem poglavji "An Introduction to Goal Systems" in pa "Beyond anthropomorphism". Lahko pa tudi malo prelistaš The MIT Encyclopedia of the Cognitive Sciences...
Eno definicijo cilja/motiva (sopomenki) najdeš tule.
Za daljšo razlago si pa poglej tale članek, predvsem poglavji "An Introduction to Goal Systems" in pa "Beyond anthropomorphism". Lahko pa tudi malo prelistaš The MIT Encyclopedia of the Cognitive Sciences...

Valentin ::
Izgleda da imam jaz malce drugačen pogled na razvoj umetne inteligence. Mislim namreč, da bi morali razvijati AI v smeri nam podobnega, razmišljajočega bitja. Razumem bojazni, da bi se lahko kaj zalomilo, vendar če bi njen hardware in software že takoj priredili tako, da bi se pokoravala 4 zakonom robotike Asimova, ne bi bilo nobene bojazni, da bi nam lahko škodila.
Skratka, AI si predstavljam kot našega zelo pametnega prijatelja, ne pa kot hladen nezaveden računski stroj...
Skratka, AI si predstavljam kot našega zelo pametnega prijatelja, ne pa kot hladen nezaveden računski stroj...
Zgodovina sprememb…
- spremenil: Valentin ()

rh^ ::
Jah sej tako si verjetno vsi predstavljamo friendly AI. Problem je, če bi kdo drug malo manj človekoljuben naredil "hostile" AI. In tega se verjetno bolj bojimo.

Valentin ::
Še en razlog več, da pohitimo z razvojem prijateljske AI. Ker se bo sovražni edino ona lahko postavila po robu...

nicnevem ::
@ Valentin
Umetna inteligenca, ki deluje v skladu z Asimovimi zakoni robotike se zelo razlikuje od inteligence, ki bi bila podobna nam. Prva ima motivacijski sistem sestavljen le iz peščice prepovedi, medtem ko naše obnašanje uravnava izjemno kompleksen sistem, ki se je izoblikoval skozi milijone let evolucije.
Če imaš v mislih scenarij, po katerem bi najprej ustvarili človeku podobno inteligenco, in nato vanjo vgradili zakone Asimova (kakorkoli že), potem smo že s prvim korakom za silo rešili problem Friendly AIja in potrebe po nekih dodatnih zakonih niti ni.
Če pa bi najprej vgradili v sistem omenjene zakone, potem.. imamo več možnosti:
a) sistem jih sploh ne bi razumel
b) sistem bi jih razumel, ampak tukaj se pojavi vprašanje: kako smo sploh prišli do te točke in na kakšen način jih razume..
Dobro se je zavedati, da imamo pri designu AIja pred seboj nepopisan list. Ne vsebuje nikakršnih mehanizmov, ki bi interpretirali omenjene zakone tako, kot jih interpretiramo ljudje, po defaultu ne vsebuje nobene želje, nobene tendence narediti karkoli, niti si ničesar ne zapomni, ničesar ne zazna v svojem okolju. Je le naključna gmota bitov, pripravljena, da jo preoblikujemo v nekaj, kar bo kolikor mogoče blizu prijazni inteligenci.
V glavnem, zakoni Asimova niso rešitev problema tako da najbolje da jih kar pozabimo. Z njimi je v bistvu toliko težav, da obstaja kar nekaj strani, kjer jih na dolgo in široko skritizirajo. Ena izmed njih je 3 Laws Unsafe...
Umetna inteligenca, ki deluje v skladu z Asimovimi zakoni robotike se zelo razlikuje od inteligence, ki bi bila podobna nam. Prva ima motivacijski sistem sestavljen le iz peščice prepovedi, medtem ko naše obnašanje uravnava izjemno kompleksen sistem, ki se je izoblikoval skozi milijone let evolucije.
Če imaš v mislih scenarij, po katerem bi najprej ustvarili človeku podobno inteligenco, in nato vanjo vgradili zakone Asimova (kakorkoli že), potem smo že s prvim korakom za silo rešili problem Friendly AIja in potrebe po nekih dodatnih zakonih niti ni.
Če pa bi najprej vgradili v sistem omenjene zakone, potem.. imamo več možnosti:
a) sistem jih sploh ne bi razumel
b) sistem bi jih razumel, ampak tukaj se pojavi vprašanje: kako smo sploh prišli do te točke in na kakšen način jih razume..
Dobro se je zavedati, da imamo pri designu AIja pred seboj nepopisan list. Ne vsebuje nikakršnih mehanizmov, ki bi interpretirali omenjene zakone tako, kot jih interpretiramo ljudje, po defaultu ne vsebuje nobene želje, nobene tendence narediti karkoli, niti si ničesar ne zapomni, ničesar ne zazna v svojem okolju. Je le naključna gmota bitov, pripravljena, da jo preoblikujemo v nekaj, kar bo kolikor mogoče blizu prijazni inteligenci.
V glavnem, zakoni Asimova niso rešitev problema tako da najbolje da jih kar pozabimo. Z njimi je v bistvu toliko težav, da obstaja kar nekaj strani, kjer jih na dolgo in široko skritizirajo. Ena izmed njih je 3 Laws Unsafe...

nicnevem ::
Kar pa se tiče antropomorfne AI... lahko poskušamo narediti upload, vendar od njega ne bo kake večje koristi, dokler ne bo hardvare toliko napredoval, da ga bo mogoče simulirati z nekaj sto-kratno hitrostjo realnega časa ali več. Poleg tega sama težavnost izdelave delujočega uploada pomika čas, ko bo mogoč, dokaj daleč v prihodnost. Do tedaj pa lahko že nekdo naredi umetno inteligenco, ki nas izbriše s planeta. Poleg tega niti ni nujno, da bi bil upload sposoben rešiti naše težave...
Kakorkoli pogledaš nam gre precej za nohte.
Nekateri obtožujejo transhumaniste, da podobno kot kristjani čakamo na odrešitev, le da na mesto boga and co. postavljamo umetno inteligenco oz. tehnologijo na splošno. Resnica je seveda ravno nasprotna. Prav mogoče je, da bo tehnologija naš konec.
P.s. Ko želim poslati post mi melje in mejle... kako minuto. Šele nato ga izpljune na slo-tech. Se to dogaja še komu?
Kakorkoli pogledaš nam gre precej za nohte.
Nekateri obtožujejo transhumaniste, da podobno kot kristjani čakamo na odrešitev, le da na mesto boga and co. postavljamo umetno inteligenco oz. tehnologijo na splošno. Resnica je seveda ravno nasprotna. Prav mogoče je, da bo tehnologija naš konec.
P.s. Ko želim poslati post mi melje in mejle... kako minuto. Šele nato ga izpljune na slo-tech. Se to dogaja še komu?

rh^ ::
Mimogrede imamo na prvi strani te teme tri Thomasove zakone :).
Kako razviti AI, ki bi razmišljal tako kot človek in posledično razumel tistih par mandatory zakonov, ki bi mu vnaprej programirali, da bi bil human friendly? Najprej AI=human mind + upgrade?
Kako razviti AI, ki bi razmišljal tako kot človek in posledično razumel tistih par mandatory zakonov, ki bi mu vnaprej programirali, da bi bil human friendly? Najprej AI=human mind + upgrade?

Valentin ::
Kolikor sem razumel, tu prevladuje prepričanje, da AI ne bi smela imeti niti kančka svobodne volje. Dočim na 3 Laws Unsafe med drugim padajo kritike v stilu, da bi zakoni robotike omejevali svobodno voljo umetne inteligence. Kot, da nas ne omejujejo podobni zakoni! Kaj pa moralni zadržki? Koliko normalnih ljudi pa je sposobno hladnokrvno ubiti človeka?
Jaz še vedno verjamem, da so ti zakoni robotike dobra osnova za razvoj prijateljske AI.
Jaz še vedno verjamem, da so ti zakoni robotike dobra osnova za razvoj prijateljske AI.

Luka Percic ::
Moje mnenje je da človeč čisto preveč egositičen, da bi ga spustili v divjino. Tudi vidimo da iz iste podlage lahko postane morilec, ali svetnik.
Kje ti je garancija?
Zato moramo imo zgradit iz nule, na katero pa lahko dodamo human like AI. Ne obratno.
Moram pa priznat da dvomim o datumih. Zakaj?
Računska moč prešvoh.
Torej imamo naravo, ki je na celotni svoji površina (pa še nad in pod njo) 24ur na dan delala evolucijo miljone let, da je naredila naše možgane.
Če se bomo šli splošno evolucijo, je bližnjic glede na naravo najbrž ogromno, ampak vseeno dvomim da bo v 10-20 letih zmožni tekmovat z miljoni let naravne evolucije, na taki površini/prostornini.
Trdim le, da taka evolucija ne zgradi samo "možganov", ampak testira končno mnogo situacij, v katerih mora spet simulirat več inačic sebe, razne interakcije,...
Osebno čakam da se evolucija začne uporabljat pri gradnji procesorjov. Kateri nato spet ženejo evolucijo. Z takim krogom (no ja, malce ga lahko odpremo, da nam bo igre poganjal:)) bi mogoče lahko eksponentno rast dali še pod kakšen eksponent.
Dokler se to ne zgodi, bom dvomil da je protokol na dosegu prstov (beri;5-10 let oddaljen).
Kje ti je garancija?
Zato moramo imo zgradit iz nule, na katero pa lahko dodamo human like AI. Ne obratno.
Moram pa priznat da dvomim o datumih. Zakaj?
Računska moč prešvoh.
Torej imamo naravo, ki je na celotni svoji površina (pa še nad in pod njo) 24ur na dan delala evolucijo miljone let, da je naredila naše možgane.
Če se bomo šli splošno evolucijo, je bližnjic glede na naravo najbrž ogromno, ampak vseeno dvomim da bo v 10-20 letih zmožni tekmovat z miljoni let naravne evolucije, na taki površini/prostornini.
Trdim le, da taka evolucija ne zgradi samo "možganov", ampak testira končno mnogo situacij, v katerih mora spet simulirat več inačic sebe, razne interakcije,...
Osebno čakam da se evolucija začne uporabljat pri gradnji procesorjov. Kateri nato spet ženejo evolucijo. Z takim krogom (no ja, malce ga lahko odpremo, da nam bo igre poganjal:)) bi mogoče lahko eksponentno rast dali še pod kakšen eksponent.
Dokler se to ne zgodi, bom dvomil da je protokol na dosegu prstov (beri;5-10 let oddaljen).

nicnevem ::
@Luka Veliki
Pomanjkanje računske moči se pojavi le, če poskušaš ustvariti AI tako, da bolj slabo razumeš kaj v resnici počneš. Recimo, pri simulaciji človeških možganov na molekularnem ali pa na nivoju nevronov, ki ju dovolj dobro razumemo. Večje kot je razumevanje, manjša je potrebna računska moč. Če si zelo zelo zvit bi bil morda dovolj že običajen današnji PC. Če pa si le zelo zvit, potem potrebuješ vsaj za začetek kak majši cluster, kakršenga imajo pri Novamente LLC ali pa pri Adaptive AI (pri obeh podjetjih ciljajo na močno, splošno inteligenco), kasneje pa pač kaj večjega. Kolikor mi je znano, tako Goertzel (ustanovitelj Novamente LLC) kot Voss (Adaptive AI) menita, da imamo že danes dovolj močan hardvare za inteligenco, ki bi bila na nivoju človeka. In nista edina.
Ovira za "Protokol" v roku 5-10 let skoraj zagotovo ne leži v prešibki strojni opremi, temveč v razumevanju. Res pa je, da tudi v primeru, ko na "idejnem nivoju" ne bo dosežen kak preboj, še vedno ostaja Singularnost zelo verjeten razvoj dogodkov. Razvoj molekularne nanotehnologije hiti nezadržno naprej in vprašanje časa, kdaj bodo realizirani računalniki katerih računska moč bo presegala moč naših možganov za več velikostnih redov. Takrat globoko razumevanje problema ne bo več potrebno.
Pomanjkanje računske moči se pojavi le, če poskušaš ustvariti AI tako, da bolj slabo razumeš kaj v resnici počneš. Recimo, pri simulaciji človeških možganov na molekularnem ali pa na nivoju nevronov, ki ju dovolj dobro razumemo. Večje kot je razumevanje, manjša je potrebna računska moč. Če si zelo zelo zvit bi bil morda dovolj že običajen današnji PC. Če pa si le zelo zvit, potem potrebuješ vsaj za začetek kak majši cluster, kakršenga imajo pri Novamente LLC ali pa pri Adaptive AI (pri obeh podjetjih ciljajo na močno, splošno inteligenco), kasneje pa pač kaj večjega. Kolikor mi je znano, tako Goertzel (ustanovitelj Novamente LLC) kot Voss (Adaptive AI) menita, da imamo že danes dovolj močan hardvare za inteligenco, ki bi bila na nivoju človeka. In nista edina.
Ovira za "Protokol" v roku 5-10 let skoraj zagotovo ne leži v prešibki strojni opremi, temveč v razumevanju. Res pa je, da tudi v primeru, ko na "idejnem nivoju" ne bo dosežen kak preboj, še vedno ostaja Singularnost zelo verjeten razvoj dogodkov. Razvoj molekularne nanotehnologije hiti nezadržno naprej in vprašanje časa, kdaj bodo realizirani računalniki katerih računska moč bo presegala moč naših možganov za več velikostnih redov. Takrat globoko razumevanje problema ne bo več potrebno.

nicnevem ::
@rh^
> "Kako razviti AI, ki bi razmišljal tako kot človek in posledično razumel tistih par mandatory zakonov, ki bi mu vnaprej programirali, da bi bil human friendly? Najprej AI=human mind + upgrade?"
Eden izmed pristopov je ta, da poskušaš skozi učenje vgraditi v AI čimveč smisla za to, kaj je prav in kaj ne. Podobno kot pri otroku, le da je pri otrocih ta način relativno lahek, ker imajo že ob rojstvu prisotne mehanizme za sprejemanje moralnih zakonov in tudi kar nekaj samih pravil, medtem ko moramo v AI to sposobnost vgraditi sami.
Obstajajo še drugi načini, ampak o tem kdaj drugič.
> "Kako razviti AI, ki bi razmišljal tako kot človek in posledično razumel tistih par mandatory zakonov, ki bi mu vnaprej programirali, da bi bil human friendly? Najprej AI=human mind + upgrade?"
Eden izmed pristopov je ta, da poskušaš skozi učenje vgraditi v AI čimveč smisla za to, kaj je prav in kaj ne. Podobno kot pri otroku, le da je pri otrocih ta način relativno lahek, ker imajo že ob rojstvu prisotne mehanizme za sprejemanje moralnih zakonov in tudi kar nekaj samih pravil, medtem ko moramo v AI to sposobnost vgraditi sami.
Obstajajo še drugi načini, ampak o tem kdaj drugič.

nicnevem ::
@Valentin
> "Kolikor sem razumel, tu prevladuje prepričanje, da AI ne bi smela imeti niti kančka svobodne volje."
Okoli svobodne volje se filozofi prepirajo že več kot 2000 let, tako da bi debato o tem vsaj v tej temi raje pustil pri miru (sicer mislim, da res ni nujno da bo AI imela svobodno voljo, ker je ta iluzija verjetno le artefakt človeške psihologije in ne ena izmed univerzalnih lastnosti vseh inteligenc). :)
> "Dočim na 3 Laws Unsafe med drugim padajo kritike v stilu, da bi zakoni robotike omejevali svobodno voljo umetne inteligence."
Hmm, nisem prepričan da si prav razumel kritike. Ena izmed njih bi bila recimo naslednja:
1. zakon Asimova je naslednji: A robot may not injure a human being, or, through inaction, allow a human being to come to harm.
Kaj preprečuje umetni inteligenci, da bi recimo preprečila vse človeške aktivnosti, ki imajo najmanjšo možnost, da odnesemo od njih kako prasko. Torej vse športe, potovanja,... v bistvu bi nas lahko kar strpala v zapore, da bi bili na varnem.
Si res želimo take prihodnosti?
Ali pa: kaj naj bi AI naredila v primerih, ki jih njeni zakoni ne pokrivajo? Nekaj naključnega?
Problem z njimi je že v sami osnovi, da ti zakoni za smiselno interpretacijo potrebujejo specifično kognitivno arhitekturo kakršno imamo ljudje, od umetnih inteligenc bi imeli enako le uploadi, za ostale bi bil to le nek binarni niz, ki zaseda dragoceni prostor v pomnilniku.
(Če imaš čas si preberi Deconstructing Asimov's Laws, ali pa 3 Laws Don't Quite Cut It na tisti strani... ).
> "Kot, da nas ne omejujejo podobni zakoni! Kaj pa moralni zadržki? Koliko normalnih ljudi pa je sposobno hladnokrvno ubiti človeka?"
Ljudi, ja. In to je bistveno. Saj vem da si je težko predstavljati neko inteligenco, ki je tako zelo različna od nas, da je njeno največje veselje ustvarjanje sponk za papir, ampak če želiš pravilno razumeti problem Friendly AIja je to edina pot.
"Povprečni" umetni inteligenci se ubijanje majhnih otrok ne zdi nič bolj (ali manj) etično sporno, kot brisanje kake datoteke... Otroci so pač le nek dodaten vir atomov, ki jih potrebuje.
> "Kolikor sem razumel, tu prevladuje prepričanje, da AI ne bi smela imeti niti kančka svobodne volje."
Okoli svobodne volje se filozofi prepirajo že več kot 2000 let, tako da bi debato o tem vsaj v tej temi raje pustil pri miru (sicer mislim, da res ni nujno da bo AI imela svobodno voljo, ker je ta iluzija verjetno le artefakt človeške psihologije in ne ena izmed univerzalnih lastnosti vseh inteligenc). :)
> "Dočim na 3 Laws Unsafe med drugim padajo kritike v stilu, da bi zakoni robotike omejevali svobodno voljo umetne inteligence."
Hmm, nisem prepričan da si prav razumel kritike. Ena izmed njih bi bila recimo naslednja:
1. zakon Asimova je naslednji: A robot may not injure a human being, or, through inaction, allow a human being to come to harm.
Kaj preprečuje umetni inteligenci, da bi recimo preprečila vse človeške aktivnosti, ki imajo najmanjšo možnost, da odnesemo od njih kako prasko. Torej vse športe, potovanja,... v bistvu bi nas lahko kar strpala v zapore, da bi bili na varnem.
Si res želimo take prihodnosti?
Ali pa: kaj naj bi AI naredila v primerih, ki jih njeni zakoni ne pokrivajo? Nekaj naključnega?
Problem z njimi je že v sami osnovi, da ti zakoni za smiselno interpretacijo potrebujejo specifično kognitivno arhitekturo kakršno imamo ljudje, od umetnih inteligenc bi imeli enako le uploadi, za ostale bi bil to le nek binarni niz, ki zaseda dragoceni prostor v pomnilniku.
(Če imaš čas si preberi Deconstructing Asimov's Laws, ali pa 3 Laws Don't Quite Cut It na tisti strani... ).
> "Kot, da nas ne omejujejo podobni zakoni! Kaj pa moralni zadržki? Koliko normalnih ljudi pa je sposobno hladnokrvno ubiti človeka?"
Ljudi, ja. In to je bistveno. Saj vem da si je težko predstavljati neko inteligenco, ki je tako zelo različna od nas, da je njeno največje veselje ustvarjanje sponk za papir, ampak če želiš pravilno razumeti problem Friendly AIja je to edina pot.
"Povprečni" umetni inteligenci se ubijanje majhnih otrok ne zdi nič bolj (ali manj) etično sporno, kot brisanje kake datoteke... Otroci so pač le nek dodaten vir atomov, ki jih potrebuje.

Luka Percic ::
Večje kot je razumevanje, manjša je potrebna računska moč.
To se strinjam.
Ampak osebno predpostavljam da razumevanje algoritmov ki jih evolucija stkala, niso za človeško oko berljivi.
Torej; neverjamem da je pamet nekaj kar nastaviš ter se potem samo razširi.
Potrebuješ stalno preverjanje rezultatov, stalno učenje, hkrati pa stalno modificiraš.
Kar hočem povedati; nemoremo mi za vsako mutacijo še enkrat preverit vseh (čimveč) situacij. To ima lahko počnejo le druge instance, ki morajo biti znotraj simulacije.
Na kratko; človeka nemoreš ustvarit takšen kot je sedaj iz nič (nemoreš v smislu zelo težko), začeti moraš pri -nevem enoceličarjih (ne mislim v biološki obliki).
Šele zapletena interakcija leteh(nekaj v smislu družbe, spet ne nujno po našem vzoru), nam imo lahko daje fajn rezultate.
Za vse te postopke pa rabiš enormno moč.
Torej; program "človek" je zmožen delovati na kubičnem decimetru biološkega substrata. Da ga je evolucija ustvarila, pa je porabila na miljardo kubičnih km, in to skozi zelo zelo dolgo časovno obdobje.
Sedaj pa primerjaj.

nicnevem ::
@ Luka
> "Ampak osebno predpostavljam da razumevanje algoritmov ki jih evolucija stkala, niso za človeško oko berljivi."
Če bi to držalo, potem nevroznanost, kognitivna psihologija in kar je še ved, ki proučujejo človeški um, ne bi dosegle nikakršnega napredka do danes. Kar pa je daleč od resničnega stanja.
Korak za korakom osvajamo neznana področja razuma in jih repliciramo v silicijevem substratu (naprimer Kurzweil v svoji knjigi Singularity is near omenja, da so naš avditorni sistem že uspešno prenesli na računalnik) in nobenega razloga ni, da se ta proces ne bi nadaljeval, dokler na ta način ne pridemo do uploada...
Seveda pa nekateri mislimo, da to ni optimalna pot. Da je mogoče do prve splošne inteligence priti tudi hitreje in učinkoviteje ter da je velika možnost, da bo nekdo to tudi naredil.
Rezultat bo pa seveda odvisen od začetne oblike "semena inteligence", ki ga bo "posejal".
> "Ampak osebno predpostavljam da razumevanje algoritmov ki jih evolucija stkala, niso za človeško oko berljivi."
Če bi to držalo, potem nevroznanost, kognitivna psihologija in kar je še ved, ki proučujejo človeški um, ne bi dosegle nikakršnega napredka do danes. Kar pa je daleč od resničnega stanja.
Korak za korakom osvajamo neznana področja razuma in jih repliciramo v silicijevem substratu (naprimer Kurzweil v svoji knjigi Singularity is near omenja, da so naš avditorni sistem že uspešno prenesli na računalnik) in nobenega razloga ni, da se ta proces ne bi nadaljeval, dokler na ta način ne pridemo do uploada...
Seveda pa nekateri mislimo, da to ni optimalna pot. Da je mogoče do prve splošne inteligence priti tudi hitreje in učinkoviteje ter da je velika možnost, da bo nekdo to tudi naredil.
Rezultat bo pa seveda odvisen od začetne oblike "semena inteligence", ki ga bo "posejal".

Thomas ::
Kar se tiče pogledov na AI, oziroma na inteligenco v splošnem, potem imam jaz zelo radikalen POV.
"Inteligenca" je computing plus okraski in iluzije, ki medejo ljudi. Tako, da je kar dovolj če ostanemo pri computingu, brez dodatkov ki ljudem sicer tudi pomagajo, da imajo neko stopnjo samozavesti in da nimajo preveč ontoloških premišljevanj v gluhi noči, katera bi jih spravljala v prehudo grozo.
Samo s tem se je treba soočiti. Nagrada, ko veš da je "inteligenca" kot se navadno jemlje samo mit, je zadostna. Pa četudi ne bi bila, dejstva je treba vzeti na znanje.
Pa je computing lahko nasty?
Seveda. V nekem pogrošnem ZF filmu so imeli umetno mehanično mačko, v velikosti pume, ki je imela dober computing za gibe, koordinacijo, skrivanje in napade in se jo je bilo treba kar bati. Computing sam plus nekaj hidravlike je bilo, objektivno gledano, skrajno nevarno za "inteligentne ljudi".
Computing - nerad rečem, ampak moram - v stilu glupega ko točak C... je vse kar nam je treba v smislu "inteligence". Več je samo pravljica, v katero verjamemo. Magične moči, za katere upamo da jih imamo.
Samo jih nimamo. Nekaj (veliko) tega + 0, to je vse.
"Inteligenca" je computing plus okraski in iluzije, ki medejo ljudi. Tako, da je kar dovolj če ostanemo pri computingu, brez dodatkov ki ljudem sicer tudi pomagajo, da imajo neko stopnjo samozavesti in da nimajo preveč ontoloških premišljevanj v gluhi noči, katera bi jih spravljala v prehudo grozo.
Samo s tem se je treba soočiti. Nagrada, ko veš da je "inteligenca" kot se navadno jemlje samo mit, je zadostna. Pa četudi ne bi bila, dejstva je treba vzeti na znanje.
Pa je computing lahko nasty?
Seveda. V nekem pogrošnem ZF filmu so imeli umetno mehanično mačko, v velikosti pume, ki je imela dober computing za gibe, koordinacijo, skrivanje in napade in se jo je bilo treba kar bati. Computing sam plus nekaj hidravlike je bilo, objektivno gledano, skrajno nevarno za "inteligentne ljudi".
Computing - nerad rečem, ampak moram - v stilu glupega ko točak C... je vse kar nam je treba v smislu "inteligence". Več je samo pravljica, v katero verjamemo. Magične moči, za katere upamo da jih imamo.
Samo jih nimamo. Nekaj (veliko) tega + 0, to je vse.
Man muss immer generalisieren - Carl Jacobi

Thomas ::
Najbolj relevanten se mi zdi Lukov ugovor. Da pač kaj tako zapletenega ne bomo spravili skupaj v desetlju, pa delali karkoli.
Povedal sem že parkrat, da ne verjamem, da bi dohtarji prišli do zdravila za vraščene nohte do leta 2100, če bi se morali zanašati nase.
Kaj šele za raka ali srčne bolezni.
Človeške kapacitete je treba jemati z veliko rezerve. V preteklih 100 letih tudi nismo avtomatizirali čiščenja čevljev, niti iztrebili komarjev in podgan. Da ne naštevam naprej.
Vendar, do rekurzivno in avtomatično se izboljšujočih procesov je le še precej majhen korak. Usoden v dobrem ali slabem pomenu.
Povedal sem že parkrat, da ne verjamem, da bi dohtarji prišli do zdravila za vraščene nohte do leta 2100, če bi se morali zanašati nase.
Kaj šele za raka ali srčne bolezni.
Človeške kapacitete je treba jemati z veliko rezerve. V preteklih 100 letih tudi nismo avtomatizirali čiščenja čevljev, niti iztrebili komarjev in podgan. Da ne naštevam naprej.
Vendar, do rekurzivno in avtomatično se izboljšujočih procesov je le še precej majhen korak. Usoden v dobrem ali slabem pomenu.
Man muss immer generalisieren - Carl Jacobi

nicnevem ::
Kar se mene tiče, se popolnoma strinjam s tem, da je inteligenca "samo" computing. Ali pa "samo" nek fizikalen proces, ki ga lahko opišemo klasično ali pa kvantnomehansko. Ali pa "pretakanje" qualie, za katero pa še nimamo kakih dobrih teorij...
S trditvijo, da bodo verjetno potrebni konceptualni preboji v teoriji umetne inteligence če jo želimo implementirati s primerno majhnimi računskimi resursi, nisem imel v mislih, da je inteligenca nekaj magičnega.
Tako kot ni nič magičnega recimo relacijska baza podatkov. Seveda je samo computing. Seveda je samo kup elektronike, ki deluje v lepo urejenem vzorcu. Vendar baza ne nastane, če spravimo skupaj nekaj tisoč računalnikov in čakamo, da bo "computing že opravil svoje". Za njeno implementacijo je bilo potrebno izzumiti relacijsko algebro in številne druge stvari.
Podobno velja tudi za AI. Eden izmed problemov s katerim si pri SIAIju zdajle razbijajo glave je reflektivnost - razmišljanje o tem kako bi bilo dobro razmišljati. Očitno je formalna teorija reflektivnosti ena izmed potrebnih sestavin za rekurzivno samo-izbolšujočo Friendly AI, ki je še ne razumemo. Problem je tudi v tem, da ne vemo prav dobro, česa vse še ne razumemo...
"Okraske in iluzije", ki se pojavijo pri inteligenci, bi pa lahko primerjal s kakim "okraskom" pri avtu, recimo zavorami, ali pa sklopko. :)
S trditvijo, da bodo verjetno potrebni konceptualni preboji v teoriji umetne inteligence če jo želimo implementirati s primerno majhnimi računskimi resursi, nisem imel v mislih, da je inteligenca nekaj magičnega.
Tako kot ni nič magičnega recimo relacijska baza podatkov. Seveda je samo computing. Seveda je samo kup elektronike, ki deluje v lepo urejenem vzorcu. Vendar baza ne nastane, če spravimo skupaj nekaj tisoč računalnikov in čakamo, da bo "computing že opravil svoje". Za njeno implementacijo je bilo potrebno izzumiti relacijsko algebro in številne druge stvari.
Podobno velja tudi za AI. Eden izmed problemov s katerim si pri SIAIju zdajle razbijajo glave je reflektivnost - razmišljanje o tem kako bi bilo dobro razmišljati. Očitno je formalna teorija reflektivnosti ena izmed potrebnih sestavin za rekurzivno samo-izbolšujočo Friendly AI, ki je še ne razumemo. Problem je tudi v tem, da ne vemo prav dobro, česa vse še ne razumemo...
"Okraske in iluzije", ki se pojavijo pri inteligenci, bi pa lahko primerjal s kakim "okraskom" pri avtu, recimo zavorami, ali pa sklopko. :)