Forum » Znanost in tehnologija » Protokol
Protokol
Temo vidijo: vsi
gardener ::
Thomas:
Koda z zelo majhnimi možnostmi za to, da se razvije v AGI, in z zelo velikimi, da postane uFAI pri pogoju da doseže AGI, ni nič boljša od neobstoječe kode - dejansko je celo mnogo slabša - čeprav verjamem, da daje mnogim drugačen vtis. Goertzlov OpenCog projekt že spada semle, skupaj z ostalimi navedenimi recimo tule.
Drugače pa obstaja AGI projekt Michaela Wilsona, ki je nekdaj sodeloval s SIAI in sedaj intenzivno razvija sistem z namenom, da ga kasneje, ko se FAI teorija razvije v zadostni meri, preoblikuje v FAI. Kolikor mi je znano, je to edini projekt s takimi namerami. Čeprav tudi zanj bi rekel, da bo najbrž potrebno zavreči večino narejenega. Kljub temu pa morda le prinese nekaj koristi v obliki prednosti pred drugimi projekti, ki si prizadevajo le doseči AGI brez ozira na Friendliness...
Upam, da jih bo vsaj večji del mogoče prepričati v nasprotno, oz. vsaj tiste kompetentne, ki imajo neko realno možnost za to, da ustvarijo kaj nevarnega.
Sam ne vidim druge možnosti. Brez precizne teorije samo-modifikacije se pri milijardah samo-izboljšav pojavi 'value drift' in AGI tako začne usmerjati svojo optimizacijsko moč v ljudem nezaželene prihodnosti - pri pogoju, da je AGI na samem začetku sploh imel motivacijsko strukturo prijazno do ljudi, oblikovanje katere pa je spet izjemno težak (FAI pod)problem... na katerega pa ljudje, ki le drvijo naprej z razvojem AGI-ja, pač pozabijo ali pa ga z mahanjem rok odženejo proč, saj naj ne bi bil pomemben. Da o drugih podproblemih FAI problema niti ne govorim.
Če se nam zelo mudi imamo tako naslednje možnosti: lahko poskušamo na kakršenkoli način že (npr. s kako izmed evolucijskih metod) razviti AGI in držimo pesti, da se bodo stvari dobro izšle. Če nam uspe, umremo, skupaj z vsem človeštvom in življenjem nasploh. Namesto tega pa lahko na lastno pest ali pa skupaj s SIAI poskušamo streti FAI problem in s tem pridobimo vsaj možnost za to, da se reči dobro iztečejo.
ABX:
Prava AI ni produkt, ki bi se ga uporabljalo kot kladivo ali računalnik, temveč avtonomna entiteta, ki usmera prihodnost po svojih željah in to počenja z izjemno močjo, kateri se lovsko-nabiralniški možgani lahko le uklonimo, saj nimamo nobene možnosti, da bi ji nasprotovali (če bi bilo to potrebno; v primeru uFAI). Ko se pojavi prva 'prava' AI, bomo njen vpliv čutili po vsem svetu in če bo narejena prav, nas bo praktično teleportirala v nebesa (grobo rečeno - stvari so v resnici zapletenejše).
donfilipo:
Natipkal v smislu kode? To pač ne. Razvoj teorije se ne začne pri kodiranju - tam se konča. Prične pa se pri konceptualnem designu, kot ga najdeš recimo tule: Coherent Extrapolated Volition
Če te zanima, še povzetek Yudkowskyeve pozicije (ki jo tudi sam zagovarjam): What I Think If Not Why
Drži, vendar Protokol ni rešitev Friendly AI problema, vsaj ne tistega z veliko začetnico (ki se nanaša na Yudkowskyev koncept), in težko bi bilo tudi reči ali je kaj prida 'friendly', saj specifikacija ni dovolj podrobna.
Okapi:
Za nas, razumnike, bi bilo torej bolje, če kak prosvetljenec razvije FAI in nas tako obrani možnosti, da bo post-singularnost krščanska, ali še huje, muslimanska, ne?
It does not work this way...
S perspektive morebitnih prihodnjih superinteligenc smo vsi skupaj, kristjani, ateisti in teroristi bedaki, tako v normativnem kot opisnem smislu, ki pa nam je kljub vsemu uspelo doumeti nekaj reči, a nikakor dovolj, da bi jih kar zabetonirali v strukturo AI-ja za vso večnost. S tega zornega kota bi bilo bolj ali manj vseeno, kdo implementira "FAI", saj bi v vseh primerih prispeli do prihodnosti, ki bi jo sčasoma obžalovali.
Namesto tega bomo raje skonstruirali meta-proces, ki bo poiskal prave (čeprav subjektivne; to ni neka ovira) odgovore in vodil prihodnost v smer, ki si jo resnično želimo; za svoj fokus pa bo seveda vzel človeštvo, v katerem se nahaja začetni opis prijetnih prihodnosti, ki mu pravimo morala...
In mimogrede, morala ni popolnoma subjektivna, bolje bi bilo reči, da je subjektivno objektivna. Se pa bojim, da je tole bolj slabo razumljivo, tako da tudi tebi priporočam, da si za začetek pogledaš zg. omenjeni članek Coherent Extrapolated Volition.
Saladin:
To je neizvedljivo. Velika večina ljudi ne bo nikoli razumela kaj želimo nekateri narediti in dvomim, da ji bodo besede "ponesli vas bomo v boljšo prihodnost" prepričale. Potrebno bo pač opraviti ključne korake brez vednosti mnogih in dejansko za njihovo dobro (verjamem pa, da ob tem marsikoga spreleti srh ter se spomni na kakega izmed totalitarizmov).
P.s. Boga ni - in ne, ne da se mi pogovarjati okoli tega. ;)
Monopolizacija Singularnosti s strani SIAI v imenu nujnosti FAI, da ne pride UFAI - ni več možna. Bi oni morali pa že imeti napisane mnogo kode, da bi bilo kaj takega smiselno in mogoče. Pa nimajo.
Koda z zelo majhnimi možnostmi za to, da se razvije v AGI, in z zelo velikimi, da postane uFAI pri pogoju da doseže AGI, ni nič boljša od neobstoječe kode - dejansko je celo mnogo slabša - čeprav verjamem, da daje mnogim drugačen vtis. Goertzlov OpenCog projekt že spada semle, skupaj z ostalimi navedenimi recimo tule.
Drugače pa obstaja AGI projekt Michaela Wilsona, ki je nekdaj sodeloval s SIAI in sedaj intenzivno razvija sistem z namenom, da ga kasneje, ko se FAI teorija razvije v zadostni meri, preoblikuje v FAI. Kolikor mi je znano, je to edini projekt s takimi namerami. Čeprav tudi zanj bi rekel, da bo najbrž potrebno zavreči večino narejenega. Kljub temu pa morda le prinese nekaj koristi v obliki prednosti pred drugimi projekti, ki si prizadevajo le doseči AGI brez ozira na Friendliness...
Čakalo se jih ne bo.
Upam, da jih bo vsaj večji del mogoče prepričati v nasprotno, oz. vsaj tiste kompetentne, ki imajo neko realno možnost za to, da ustvarijo kaj nevarnega.
Za ceno neprijazne umetne inteligence? Nikakor ni nujno.
Sam ne vidim druge možnosti. Brez precizne teorije samo-modifikacije se pri milijardah samo-izboljšav pojavi 'value drift' in AGI tako začne usmerjati svojo optimizacijsko moč v ljudem nezaželene prihodnosti - pri pogoju, da je AGI na samem začetku sploh imel motivacijsko strukturo prijazno do ljudi, oblikovanje katere pa je spet izjemno težak (FAI pod)problem... na katerega pa ljudje, ki le drvijo naprej z razvojem AGI-ja, pač pozabijo ali pa ga z mahanjem rok odženejo proč, saj naj ne bi bil pomemben. Da o drugih podproblemih FAI problema niti ne govorim.
Če se nam zelo mudi imamo tako naslednje možnosti: lahko poskušamo na kakršenkoli način že (npr. s kako izmed evolucijskih metod) razviti AGI in držimo pesti, da se bodo stvari dobro izšle. Če nam uspe, umremo, skupaj z vsem človeštvom in življenjem nasploh. Namesto tega pa lahko na lastno pest ali pa skupaj s SIAI poskušamo streti FAI problem in s tem pridobimo vsaj možnost za to, da se reči dobro iztečejo.
ABX:
Jaz stavim da masovna uporaba prave AI se bo prvo pojavila na Japonskem.
Prava AI ni produkt, ki bi se ga uporabljalo kot kladivo ali računalnik, temveč avtonomna entiteta, ki usmera prihodnost po svojih željah in to počenja z izjemno močjo, kateri se lovsko-nabiralniški možgani lahko le uklonimo, saj nimamo nobene možnosti, da bi ji nasprotovali (če bi bilo to potrebno; v primeru uFAI). Ko se pojavi prva 'prava' AI, bomo njen vpliv čutili po vsem svetu in če bo narejena prav, nas bo praktično teleportirala v nebesa (grobo rečeno - stvari so v resnici zapletenejše).
donfilipo:
Moram najprej videti, če je razen bloga (ki je OK), obveščanj (ki so tudi OK), sploh res kaj natipkal:)
Natipkal v smislu kode? To pač ne. Razvoj teorije se ne začne pri kodiranju - tam se konča. Prične pa se pri konceptualnem designu, kot ga najdeš recimo tule: Coherent Extrapolated Volition
Če te zanima, še povzetek Yudkowskyeve pozicije (ki jo tudi sam zagovarjam): What I Think If Not Why
Če pa domnevamo, da protokol ustavi evolucijo na optimalno ravni, se mi pa zdi, da je še hudičevo pomembno, kdo in kakšen konsenz med ljudmi ga dokončno zažene
Drži, vendar Protokol ni rešitev Friendly AI problema, vsaj ne tistega z veliko začetnico (ki se nanaša na Yudkowskyev koncept), in težko bi bilo tudi reči ali je kaj prida 'friendly', saj specifikacija ni dovolj podrobna.
Okapi:
Friendly AI je subjektivna kategorija, tako da je še kako pomembno, kdo jo razvije. Kar je prijazno za ljudi, morda ni tako zelo prijazno do česa drugega. In kar je prijazno za ateističnega razumnika, ni nujno prijazno za vernega kristjana.
Za nas, razumnike, bi bilo torej bolje, če kak prosvetljenec razvije FAI in nas tako obrani možnosti, da bo post-singularnost krščanska, ali še huje, muslimanska, ne?
It does not work this way...
S perspektive morebitnih prihodnjih superinteligenc smo vsi skupaj, kristjani, ateisti in teroristi bedaki, tako v normativnem kot opisnem smislu, ki pa nam je kljub vsemu uspelo doumeti nekaj reči, a nikakor dovolj, da bi jih kar zabetonirali v strukturo AI-ja za vso večnost. S tega zornega kota bi bilo bolj ali manj vseeno, kdo implementira "FAI", saj bi v vseh primerih prispeli do prihodnosti, ki bi jo sčasoma obžalovali.
Namesto tega bomo raje skonstruirali meta-proces, ki bo poiskal prave (čeprav subjektivne; to ni neka ovira) odgovore in vodil prihodnost v smer, ki si jo resnično želimo; za svoj fokus pa bo seveda vzel človeštvo, v katerem se nahaja začetni opis prijetnih prihodnosti, ki mu pravimo morala...
In mimogrede, morala ni popolnoma subjektivna, bolje bi bilo reči, da je subjektivno objektivna. Se pa bojim, da je tole bolj slabo razumljivo, tako da tudi tebi priporočam, da si za začetek pogledaš zg. omenjeni članek Coherent Extrapolated Volition.
Saladin:
Pa da ne bo kdo pomislil, da nekaj silim boga v znanost - trdim le, da boš potreboval tudi podporo vernikov za kakršenkoli globalen, voluntary paradigm shift.
To je neizvedljivo. Velika večina ljudi ne bo nikoli razumela kaj želimo nekateri narediti in dvomim, da ji bodo besede "ponesli vas bomo v boljšo prihodnost" prepričale. Potrebno bo pač opraviti ključne korake brez vednosti mnogih in dejansko za njihovo dobro (verjamem pa, da ob tem marsikoga spreleti srh ter se spomni na kakega izmed totalitarizmov).
P.s. Boga ni - in ne, ne da se mi pogovarjati okoli tega. ;)
gardener ::
ABX:
Če sem odkrit, je moja pobožna želja najti kakega (potencialnega) matematičnega/filozofskega genija, da bi prispeval k razvoju Friendly AI teorije, ali pa kakega altruista z debelo denarnico, ki bi s finančnimi sredstvi podprl projekt. Sem pa na stalni preži tudi za dobrimi idejami... Morda na kaj od tega naletim ravno tule. :)
Wannabe genijem: ;) iskanje odgovora na vprašanje, kako ustvariti prijazno umetno inteligenco (Friendly AI), je daleč najpomembnejši projekt v zgodovini človeštva. V prihodnjih desetletjih bo nekomu uspelo ustvariti 'pravo' AI, in če do tedaj ne uspemo ugotoviti, kako jo izoblikovati, da bo prijazna, se bo naša zgodba končala - pozabimo lahko na intergalaktične civilizacije, čudovite virtualne svetove, razrešitev poslednjih filozofskih vprašanj...
Časa za kovanje FAI teorije nikakor ni na pretek - Moorov zakon tiktaka še naprej, kognitivne znanosti počasi a zanesljivo odstirajo skrivnosti inteligence, AGI projekti so vse pogostejši - razvoj teorije pa nič lažji kot doslej in zaradi tega zlahka zahteva dolga leta. Z iskanjem odgovorov bi morali začeti že davno, vendar ni še vse izgubljeno, tako da, draga gospodična (z neznanim genijem sem imel pač v mislih bejbo :P), če želiš kaj prispevati k temu prizdevanju, te vabim v virtualno domovanje Singularity Instituta, da si ogledaš malo s čim se ukvarjajo, katere projekte imajo v kratokočnem planu in kakšno predznanje približno potrebuješ za izboljšanje razumevanja problematike (k slednjemu bi dodal še velik del bloga Less wrong, ki je sedaj k sreči organiziran v sekvence). Najbolje, da se kar lotiš študija... ;)
Tukaj debatiramo o njej ker želimo biti pripravljeni na novi svet ki se nam obeta.Sam bi raje rekel, da zato, ker želimo ugotoviti, kako lahko sooblikujemo prihodnost oz. igramo dejavno vlogo pri sprožitvi prijazne Singularnosti; poleg tega pa s pogovorom seveda vplivamo tudi na dejanja drugih, koordiniramo svoje dejavnosti in tako poskušamo dvigniti možnosti dobri prihodnosti.
Če sem odkrit, je moja pobožna želja najti kakega (potencialnega) matematičnega/filozofskega genija, da bi prispeval k razvoju Friendly AI teorije, ali pa kakega altruista z debelo denarnico, ki bi s finančnimi sredstvi podprl projekt. Sem pa na stalni preži tudi za dobrimi idejami... Morda na kaj od tega naletim ravno tule. :)
Wannabe genijem: ;) iskanje odgovora na vprašanje, kako ustvariti prijazno umetno inteligenco (Friendly AI), je daleč najpomembnejši projekt v zgodovini človeštva. V prihodnjih desetletjih bo nekomu uspelo ustvariti 'pravo' AI, in če do tedaj ne uspemo ugotoviti, kako jo izoblikovati, da bo prijazna, se bo naša zgodba končala - pozabimo lahko na intergalaktične civilizacije, čudovite virtualne svetove, razrešitev poslednjih filozofskih vprašanj...
Časa za kovanje FAI teorije nikakor ni na pretek - Moorov zakon tiktaka še naprej, kognitivne znanosti počasi a zanesljivo odstirajo skrivnosti inteligence, AGI projekti so vse pogostejši - razvoj teorije pa nič lažji kot doslej in zaradi tega zlahka zahteva dolga leta. Z iskanjem odgovorov bi morali začeti že davno, vendar ni še vse izgubljeno, tako da, draga gospodična (z neznanim genijem sem imel pač v mislih bejbo :P), če želiš kaj prispevati k temu prizdevanju, te vabim v virtualno domovanje Singularity Instituta, da si ogledaš malo s čim se ukvarjajo, katere projekte imajo v kratokočnem planu in kakšno predznanje približno potrebuješ za izboljšanje razumevanja problematike (k slednjemu bi dodal še velik del bloga Less wrong, ki je sedaj k sreči organiziran v sekvence). Najbolje, da se kar lotiš študija... ;)
Saladin ::
To je neizvedljivo. Velika večina ljudi ne bo nikoli razumela kaj želimo nekateri narediti in dvomim, da ji bodo besede "ponesli vas bomo v boljšo prihodnost" prepričale. Potrebno bo pač opraviti ključne korake brez vednosti mnogih in dejansko za njihovo dobro (verjamem pa, da ob tem marsikoga spreleti srh ter se spomni na kakega izmed totalitarizmov).
Brez jasne podpore mainstream religij ne boš z javno (finančno in politično) podporo daleč prišel.
Kar je zelo slabo - a žal nujno.
Da pa se nekje za hrbtom in underground odloča (in realno uresničuje) o reformah globalnih razsežnosti, pa je izjemno nevarno.
Reci karkoli hočeš - posthumana civilizacija na stopnji posthumanega Boga je endgame, kamor vodijo vsi najbolj dolgoročni tehnološki cilji.
IMO pa tudi razvoj teologije in religije vodi v to smer. Edina racionalna razlaga "morebitnega" (poudarjam) Boga je preko podobne, postinteligentne faze.
Prej ko to mainstream religije skapirajo oz. dopustijo - bolje za vse.
Čist iz praktičnega razloga je to potrebno sprejeti. Zavoljo hitrejšega napredka brez nepotrebnih ovir - tehnoloških in socialnih.
Edit:
Noben noče priznati, kako pomembna je religija pri vsem tem. "Resni" znanstveniki se nočejo ubadati s tem, ker preveč diši na religijo, verniki pa smatrajo vsako znanstveno definiranje skrajnih meja znanega in možnega kot napad na integriteto boga.
Težava je v tem, da znanstveniki ponavadi niso agnostiki (ali non-teisti, kot bi trebali biti), verniki pa ponavadi niso odprti ideologijam zunaj svojih dogmatičnih prepričanj.
Resna, odprta debata o (z)možnostih posthumanih civilizaciji in sentiench je predpogoj, da se razblinijo strahovi in predsodki o pravljicah in krivoverstvu.
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"
Zgodovina sprememb…
- spremenil: Saladin ()
Thomas ::
Memeplex ki lebdi na SIAI je prav fascinanten. Večinoma popolnoma pravilen, napake so redke, a te po moje toliko bolj usodne.
Kot bi Maxwell iz zakonov ki jih je odkril (oziroma naperkoval in sistemiziral od ostalih genijev tstih časo) - napovedal 20. stoletje.
Čist narobe. Preveč viktrorijansko, milo rečeno. Pa če je vsak (in je) Maxwellov zakon THE TRVTH.
Kot bi Maxwell iz zakonov ki jih je odkril (oziroma naperkoval in sistemiziral od ostalih genijev tstih časo) - napovedal 20. stoletje.
Čist narobe. Preveč viktrorijansko, milo rečeno. Pa če je vsak (in je) Maxwellov zakon THE TRVTH.
Man muss immer generalisieren - Carl Jacobi
Thomas ::
Eno dobro zadevo sem videl na LW. Namreč, je rekel nekdo, da bi se naši predniki, 100 ali 200 let nazaj, zgražali nad družbo svojih potomcev in njimi samimi. Nedvomno. In da smo lahko tudi prepričani, da bi se mi danes zgražali nad tem kar pride.
Potem pa pride shocker - Rimljani bi nas razumeli!
Civis Rumanus sum!
Morda je Rim res večno mesto.
Potem pa pride shocker - Rimljani bi nas razumeli!
Civis Rumanus sum!
Morda je Rim res večno mesto.
Man muss immer generalisieren - Carl Jacobi
gardener ::
Saladin:
Thomas:
Pred kakim stoletjem je na oni strani Luže še vedno vladala velika rasna nestrpnost. Če bi iz teh časov teleportiral v današnji svet kakega sužnjelastniško mislečega belca, bi se kar malce bal za njegovo zdravje, ko bi mu pokazal njegovega današnjega predsednika. Vkolikor pa bi bil intelektualno dovolj agilen, menim, da bi čez čas spoznal pravilnost takšnega razvoja dogodkov.
Po drugi strani pa ne bi bilo mogoče najti nikogar, ki bi prišel do enakega zaključka v vesolju, napolnjenim s sponkami za papir. Iz tega sledi, da obstaja le neka specifična podmnožica mogočih prihodnosti, ki nas šokirajo in so hkrati tudi dobre. Če pogled na drugo stran v nas vzbudi gnus, to še ne pomeni nujno, da moramo preusmeriti svoje ladje; niti ne velja, da je karkoli že vzbudi v nas zgražanje, dobro. Trajektorija, ki jo zariše naša morala preko refleksije nad seboj (t.i. moralni napredek) je zapletena in zelo specifična...
Brez jasne podpore mainstream religij ne boš z javno (finančno in politično) podporo daleč prišel. Kar je zelo slabo - a žal nujnoDvomim. Tako široka podpora množic se mi ne zdi potrebna. Kar potrebujemo je najbrž v rangu maks. nekaj sto milijonov evrov sredstev in pa predvsem sposobne ljudi, ki bodo razvili potrebno teorijo in implementirali FAI, teh pa med verniki ne bi iskal. Potrebno jih bo pritegniti iz dela akademske sfere (semle prištevam tudi študente) in morda kakih R&D labov, kar pa se tiče religij in drugih 'struktur moči', je bolje da ostanemo 'off the radar'.
Edina racionalna razlaga "morebitnega" (poudarjam) Boga je preko podobne, postinteligentne faze.Bog je, ontološko gledano, ločeno bitje od kakršnekoli superinteligence, saj je slednja čisto običajna struktura, ki deluje po naravnih zakonih vesolja, medtem ko je Bog pač nadnaraven. Omenjam le zato, da ne bi koga zavedlo v vprašanja, ali se morda singularitantstvo opira na kake nadnaravne pojave (odg. je seveda ne) - o Bogu/bogu drugače ne mislim razpravljati.
Thomas:
Memeplex ki lebdi na SIAI je prav fascinanten. Večinoma popolnoma pravilen, napake so redke, a te po moje toliko bolj usodne.Bi lahko bil malo manj skrivnosten? :)
In da smo lahko tudi prepričani, da bi se mi danes zgražali nad tem kar pride.Se strinjam. Vendar bi, 'on further reflextion', uvideli da je prav, da so se stvari tako odvile.
Pred kakim stoletjem je na oni strani Luže še vedno vladala velika rasna nestrpnost. Če bi iz teh časov teleportiral v današnji svet kakega sužnjelastniško mislečega belca, bi se kar malce bal za njegovo zdravje, ko bi mu pokazal njegovega današnjega predsednika. Vkolikor pa bi bil intelektualno dovolj agilen, menim, da bi čez čas spoznal pravilnost takšnega razvoja dogodkov.
Po drugi strani pa ne bi bilo mogoče najti nikogar, ki bi prišel do enakega zaključka v vesolju, napolnjenim s sponkami za papir. Iz tega sledi, da obstaja le neka specifična podmnožica mogočih prihodnosti, ki nas šokirajo in so hkrati tudi dobre. Če pogled na drugo stran v nas vzbudi gnus, to še ne pomeni nujno, da moramo preusmeriti svoje ladje; niti ne velja, da je karkoli že vzbudi v nas zgražanje, dobro. Trajektorija, ki jo zariše naša morala preko refleksije nad seboj (t.i. moralni napredek) je zapletena in zelo specifična...
Potem pa pride shocker - Rimljani bi nas razumeli!Kaj pa vem, bi moral povprašati kakega zgodovinarja. Zdi se mi, da bi gotovo našli kako navado današnjega sveta, ob kateri bi Rimljani rekli le "wtf", (seveda po latinsko), še toliko bolj pa to velja za svet daljne prihodnosti. :)
Saladin ::
Bog je, ontološko gledano, ločeno bitje od kakršnekoli superinteligence, saj je slednja čisto običajna struktura, ki deluje po naravnih zakonih vesolja, medtem ko je Bog pač nadnaraven
Samo in zgolj v primeru Primus Movensa - ki pa najverjetneje fizikalno ni verjeten.
In trust me - dovolj močna superinteligenca postane izenačena z klasično definicijo Boga.
Dovolj o tem.
Rant on.
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"
ABX ::
ABX:
Jaz stavim da masovna uporaba prave AI se bo prvo pojavila na Japonskem.
eudaemon:
Prava AI ni produkt, ki bi se ga uporabljalo kot kladivo ali računalnik, temveč avtonomna entiteta, ki usmera prihodnost po svojih željah in to počenja z izjemno močjo, kateri se lovsko-nabiralniški možgani lahko le uklonimo, saj nimamo nobene možnosti, da bi ji nasprotovali (če bi bilo to potrebno; v primeru uFAI). Ko se pojavi prva 'prava' AI, bomo njen vpliv čutili po vsem svetu in če bo narejena prav, nas bo praktično teleportirala v nebesa (grobo rečeno - stvari so v resnici zapletenejše).
Jaz mislim da do prave AI bomo prišli postopoma, ne z enim velikim korakom. Iz tega vidika potem sklepam da AI bomo uporabljali kot orodje in tudi ko nas bo prehitela, bomo vedno živeli v simbiozi.
Vaša inštalacija je uspešno spodletela!
gardener ::
Ko AI doseže neko stopnjo v svojem razvoju (najkasneje v času ko preseže ljudi v takšni meri, da je sama sposobna razvoja AI teorije, najbrž pa že mnogo prej), sledi obdobje izjemno hitre rekurzivne samo-izboljšave in naša inteligenca tako ostane daleč v ozadju. V veliki večini primerov rezultat tega procesa ni nikakršna simbioza z ljudmi, temveč pripojitev atomov in molekul iz katerih smo zgrajeni AI-ju oz. njihova uporaba za namene AI-ja (produkcijo sponk za papir ali katerega izmed neštetih drugih nesmiselnih ciljev). Obdobja v katerem imamo le množice relativno neumnih robotov (v katerem mimogrede že živimo), je tako lahko prav hitro konec...
petrus ::
Na slashdotu je enkrat nekdo napisal:
Je lahko vseskupaj samo dovolj hitro primerjanje dovolj velike količine vzorcev kot pa kaj druga?
The perception that the brain is a computer is just wrong. It's a pattern matching engine, and it's main ability is fast memory look ups.
Je lahko vseskupaj samo dovolj hitro primerjanje dovolj velike količine vzorcev kot pa kaj druga?
stati inu obstati
Okapi ::
Ne. To je sicer pomemben del možganov, ampak tisti, ki ga imajo tudi živali. Pri ljudeh je še par reči zraven. Med drugim recimo sposobnost simbolnega razmišljanja (predstavljanje oziroma opisovanje sveta s simboli, simbolno sporazumevanje ...).
O.
O.
ABX ::
Ko AI doseže neko stopnjo v svojem razvoju (najkasneje v času ko preseže ljudi v takšni meri, da je sama sposobna razvoja AI teorije, najbrž pa že mnogo prej), sledi obdobje izjemno hitre rekurzivne samo-izboljšave in naša inteligenca tako ostane daleč v ozadju. V veliki večini primerov rezultat tega procesa ni nikakršna simbioza z ljudmi, temveč pripojitev atomov in molekul iz katerih smo zgrajeni AI-ju oz. njihova uporaba za namene AI-ja (produkcijo sponk za papir ali katerega izmed neštetih drugih nesmiselnih ciljev). Obdobja v katerem imamo le množice relativno neumnih robotov (v katerem mimogrede že živimo), je tako lahko prav hitro konec...
Že že, ampak preden pride do te faze bo za nas AI orodje. Kaj pa se bo zgodilo po singularnosti pa je še špekulacija.
Vaša inštalacija je uspešno spodletela!
Zgodovina sprememb…
- spremenilo: ABX ()
Thomas ::
Ko AI doseže neko stopnjo v svojem razvoju (najkasneje v času ko preseže ljudi v takšni meri, da je sama sposobna razvoja AI teorije, najbrž pa že mnogo prej), sledi obdobje izjemno hitre rekurzivne samo-izboljšave in naša inteligenca tako ostane daleč v ozadju. V veliki večini primerov rezultat tega procesa ni nikakršna simbioza z ljudmi, temveč pripojitev atomov in molekul iz katerih smo zgrajeni AI-ju oz. njihova uporaba za namene AI-ja (produkcijo sponk za papir ali katerega izmed neštetih drugih nesmiselnih ciljev). Obdobja v katerem imamo le množice relativno neumnih robotov (v katerem mimogrede že živimo), je tako lahko prav hitro konec...
S temle se strinjam. Samo mislim, da niti SAI ne more preko nekaterih reči.
Man muss immer generalisieren - Carl Jacobi
gardener ::
ABX:
---
Thomas:
Ne more recimo prekršiti resničnih fizikalnih/naravnih zakonov, ali pa se izogniti problemu indukcije - si imel v mislih kaj drugega?
Že že, ampak preden pride do te faze bo za nas AI orodje.Se strinjam (v tej fazi živimo že sedaj, ko uporabljamo množico raznih narrow AI programov; vprašanje je, koliko časa bo trajala - z evolucijskega gledišča se bo zagotovo kmalu končala, sledilo pa ji bo obdobje 'prave' AI, če nas seveda ne doleti kakšna izmed eksistenčnih katastrof - in ko sem govoril o AI, sem imel v mislih slednjo, splošno, 'pravo' umetno inteligenco, o kateri je tule tudi večinoma govora).
Kaj pa se bo zgodilo po singularnosti pa je še špekulacija.Nekatere stvari lahko vseeno z visoko zanesljivostjo napovemo in ena izmed teh je potek dogodkov, kot sem ga na kratko orisal zgoraj.
---
Thomas:
Samo mislim, da niti SAI ne more preko nekaterih reči.Kot je na primer...?
Ne more recimo prekršiti resničnih fizikalnih/naravnih zakonov, ali pa se izogniti problemu indukcije - si imel v mislih kaj drugega?
Thomas ::
To dvoje zagotovo. Indukcijski bias in naravni zakoni.
Že skozi indukcijski bias morda lahko krmiliš SAI kakor hočeš. Drexlerjeve kletke ali pa še kaj tretjega, pa tudi ni a priori mogoče izključiti.
Paradigma "inteligentnejšega ne boš pretental" je mau ... iz prejšnjega desetletja.
Že skozi indukcijski bias morda lahko krmiliš SAI kakor hočeš. Drexlerjeve kletke ali pa še kaj tretjega, pa tudi ni a priori mogoče izključiti.
Paradigma "inteligentnejšega ne boš pretental" je mau ... iz prejšnjega desetletja.
Man muss immer generalisieren - Carl Jacobi
Thomas ::
No, ja .. "indukcijski bias" ni ravno najbolj ustrezen izraz. Arbitrarnost defaultnega axiomatskega sistema - bi bilo precej bolj pametno rečt.
Man muss immer generalisieren - Carl Jacobi
Zgodovina sprememb…
- spremenil: Thomas ()
gardener ::
Thomas:
Brez takšnega biasa je AI neuporabna (dejansko ne more niti obstajati - vsaka vrstica kode je že nek šibki bias), s primerno zasnovanim pa lahko njeni modeli zelo hitro konvergirajo k dobremu ujemanju s teritorijem.
Indukcijski bias je tako le neko začetno orodje, s katerim se AI dokoplje do svojega opisa sveta, ne vsebuje pa kaj dosti motivacijske strukture, ki bi AI vodila k prijaznosti - njeni cilji bi bili v dobro oblikovanem ind. biasu najbrž v grobem podobni radovednosti, o pomoči ljudem pa ne bi bilo niti sledu. Za slednje potrebujemo nek 'motivacijski' induktivni bias, ki pa je okvirno gledano ravno tisto, kar želi doseči FAI projekt.
Skratka, inteligentnejšega boš zelo redko pretental - kako redko pa je odvisno od razlike v inteligenci (superinteligence nikoli).
Matematično gledano je aksiomatskih sistemov (in pravil sklepanja) števno neskončno, vendar so le nekateri izmed teh takšni, da vodijo do 'zanimivih' teoremov, ki imajo to lastnost, da izjemno dobro kompresirajo nekatera naša izkustva (2+3=5 velja tako za jabolka, kot galaksije). Izbira torej tudi tu ne more biti prepuščena metanju kocke.
Arbitrarnost normativnih aksimov? Ljudje si želimo zelenih travnikov in lepih deklet in ne vesolja polnega sponk za papir, tako da tudi izbira teh ne sme biti naključna.
Že skozi indukcijski bias morda lahko krmiliš SAI kakor hočeš.Well, del indukcijskega biasa je recimo Occam prior (preprostejše hipoteze naj imajo višjo apriorno verjetnostno težo), ali pa razred učnih algoritmov, s katerimi bo AI pričela modelirati svet (in sebe).
Brez takšnega biasa je AI neuporabna (dejansko ne more niti obstajati - vsaka vrstica kode je že nek šibki bias), s primerno zasnovanim pa lahko njeni modeli zelo hitro konvergirajo k dobremu ujemanju s teritorijem.
Indukcijski bias je tako le neko začetno orodje, s katerim se AI dokoplje do svojega opisa sveta, ne vsebuje pa kaj dosti motivacijske strukture, ki bi AI vodila k prijaznosti - njeni cilji bi bili v dobro oblikovanem ind. biasu najbrž v grobem podobni radovednosti, o pomoči ljudem pa ne bi bilo niti sledu. Za slednje potrebujemo nek 'motivacijski' induktivni bias, ki pa je okvirno gledano ravno tisto, kar želi doseči FAI projekt.
Paradigma "inteligentnejšega ne boš pretental" je mau ... iz prejšnjega desetletja.Morda v principu res obstaja možnost konstrukcije takšnega indukcijskega biasa, da ima AI neke sistematične slepe pege - deli njenega 'zemljevida' za vedno ostanejo prazni, čeprav priznam, da si to zelo težko predstavljam pri AGI na transčloveškem nivoju, sploh pa dvomim, da je z našo mizerno inteligenco možno zgraditi kaj takega. Potem pa je tu še vprašanje, kako bi s prikrivanjem delčkov sveta vplivali na odločitve AI - ne bi bilo bolje primerno oblikovati 'utility' funkcijo, namesto da se igramo z verjetnostnimi porazdelitvami v 'expected utility' enačbi?!
Skratka, inteligentnejšega boš zelo redko pretental - kako redko pa je odvisno od razlike v inteligenci (superinteligence nikoli).
Arbitrarnost defaultnega axiomatskega sistema - bi bilo precej bolj pametno rečt.Če se 'arbitrarnost' nanaša na "saj je vseeno, kakšen je začetni aksiomatski sistem", potem se s takšno oznako ne strinjam. Anti-Occam prior bi recimo vodil AI stran od resnice (npr. z vsakim jutrom bi sklenila, da je verjetnost za jutrišnji ponovni vzhod sonca manjša) in podobno velja za večino indukcijskih biasov. Samo verjetno nisi imel tega v mislih...
Matematično gledano je aksiomatskih sistemov (in pravil sklepanja) števno neskončno, vendar so le nekateri izmed teh takšni, da vodijo do 'zanimivih' teoremov, ki imajo to lastnost, da izjemno dobro kompresirajo nekatera naša izkustva (2+3=5 velja tako za jabolka, kot galaksije). Izbira torej tudi tu ne more biti prepuščena metanju kocke.
Arbitrarnost normativnih aksimov? Ljudje si želimo zelenih travnikov in lepih deklet in ne vesolja polnega sponk za papir, tako da tudi izbira teh ne sme biti naključna.
Thomas ::
Brez takšnega biasa je AI neuporabna
Se strinjam. Ampak mene AI sploh ne zanima! Mene zanima rezultat programa, ki odgovori na vprašanje - "kaj bi SAI storila v svetu, kjer je samo x86 procesor in 100 Giga RAMA?".
Zanima me rezultat tega in takih programov - ne SAI, spljoh.
Drexlerjeva kletka neke sorte. No, mogoče še mau bolj sprijena varianta, o kateri ne bom nič konkretnega rekel.
Black swan ahead za vse FAI pristaše.
Arbitrarnost normativnih aksimov? Ljudje si želimo zelenih travnikov in lepih deklet
Ja, ja, to je en tak arbitrarni set, ki je meni dovolj blizu. Samo sem mislil predvsem na bolj delovne variante, kjer so "to be SAI" valja in hara.
No, tle bom zraven, če bo mejčkn sreče.
Man muss immer generalisieren - Carl Jacobi
Zgodovina sprememb…
- spremenil: Thomas ()
T-h-o-r ::
"Ljudje si želimo zelenih travnikov in lepih deklet"
kaj pa pedofili, če vzamem ekstremni primer :)
kaj pa pedofili, če vzamem ekstremni primer :)
Why have a civilization anymore
if we no longer are interested in being civilized?
if we no longer are interested in being civilized?
T-h-o-r ::
torej
vsem se izpolni raj
razen tistim, ki se jim po današnjih standardih ne sme?
vsem se izpolni raj
razen tistim, ki se jim po današnjih standardih ne sme?
Why have a civilization anymore
if we no longer are interested in being civilized?
if we no longer are interested in being civilized?
Thomas ::
Oh ne, sej se lahko. Samo se jim popravi mau preference.
Praviš - ja ampak eden ma rad pajke in bi jih s sabo.
Moja Arbitrarnost trdi, da pajkov ne, čeprav bi jih kdo rad. Bo začel ljubiti čmrlje pa bo lih tko srečen.
Kdo bo to odločil? Arbiter, se razume. Njegova ekselenca Arbiter ali Arbiterski Senat, bolj verjetno.
Praviš - ja ampak eden ma rad pajke in bi jih s sabo.
Moja Arbitrarnost trdi, da pajkov ne, čeprav bi jih kdo rad. Bo začel ljubiti čmrlje pa bo lih tko srečen.
Kdo bo to odločil? Arbiter, se razume. Njegova ekselenca Arbiter ali Arbiterski Senat, bolj verjetno.
Man muss immer generalisieren - Carl Jacobi
T-h-o-r ::
"Moja Arbitrarnost trdi, da pajkov ne, čeprav bi jih kdo rad. Bo začel ljubiti čmrlje pa bo lih tko srečen."
totalitarizem
totalitarizem
Why have a civilization anymore
if we no longer are interested in being civilized?
if we no longer are interested in being civilized?
Thomas ::
Nedvomno. Totalitarizem v nekem pomenu besede. Ne v Musotovem, ki je menil, da je vse podrejeno državi.
Totalitarizem v tem smislu, da ni nekontroliranega atoma. To pa zagotovo.
Totalitarizem v tem smislu, da ni nekontroliranega atoma. To pa zagotovo.
Man muss immer generalisieren - Carl Jacobi
T-h-o-r ::
potem bo naša svoboda manjša, kot sedaj
zame nesprejemljivo
zame nesprejemljivo
Why have a civilization anymore
if we no longer are interested in being civilized?
if we no longer are interested in being civilized?
Thomas ::
Zakaj pa manjša? Že zdaj si determiniran s fizikalno konfiguracijo, znotraj katere se nahajaš.
Komot je lahko večja, potem je pa sprejemljivo?
Komot je lahko večja, potem je pa sprejemljivo?
Man muss immer generalisieren - Carl Jacobi
T-h-o-r ::
zdaj si lahko želim in počnem karkoli (v svojih mislih)
potem bi bilo to odvzeto, ker pač ti ne maraš pajkov
potem bi bilo to odvzeto, ker pač ti ne maraš pajkov
Why have a civilization anymore
if we no longer are interested in being civilized?
if we no longer are interested in being civilized?
Thomas ::
Ne žaluj preveč za pajki. Pride lahko 1000 stvari namesto vsakega gnusnega pajka. Kot recimo milijardo milijard sadežev, med sabo tako ali bolj različni, kot jabolko in banana. Itd.
Man muss immer generalisieren - Carl Jacobi
T-h-o-r ::
"Pride lahko 1000 stvari namesto vsakega gnusnega pajka"
ki pa ne bodo pajki
a ljudje, ki se opredeljujejo bolj za levo plat politike bodo tudi eliminirani? ker jih pač ne maraš preveč
ki pa ne bodo pajki
a ljudje, ki se opredeljujejo bolj za levo plat politike bodo tudi eliminirani? ker jih pač ne maraš preveč
Why have a civilization anymore
if we no longer are interested in being civilized?
if we no longer are interested in being civilized?
Thomas ::
Politika nas potem ne zanima več. Enako ne, kot tehnike kopanja s krampom in lopato.
To da si "lev" ali "desen" je pomebno ene toliko, kakor s katerim orodjem raje koplješ po zemlji. S krampom ali z lopato? Si bolj narejen za uporabo lopate, ali bolj za vihtenje krampa?
Couldn't care less.
To da si "lev" ali "desen" je pomebno ene toliko, kakor s katerim orodjem raje koplješ po zemlji. S krampom ali z lopato? Si bolj narejen za uporabo lopate, ali bolj za vihtenje krampa?
Couldn't care less.
Man muss immer generalisieren - Carl Jacobi
Zgodovina sprememb…
- spremenil: Thomas ()
innerspace ::
Kaj pa pajek? A je on tudi arbiter ali le virtualni drazljaj za arbitra?
Donate BTC here: 35KR84u3rXN3in1kCw9YHRz4WF3r5kfFF4
Double_J ::
Zadnjič sem gledal neko ljudstvo, ki lovi tarantele, potem pa se mastijo. Otroci žvečijo pajka, ki jim sega čez cel obraz.
Če bo po njihovo, bomo imeli še več pajkov, ter bistveno večje pajke.
Če bo po njihovo, bomo imeli še več pajkov, ter bistveno večje pajke.
Dve šivanki...
Thomas ::
A, seveda. Odvisno je samo, po čigavo bo. Kdor bo zmagal v dirki za SAI, bo precej določil. Razumljivo.
Kdor ima 1 promilo možnosti, da tisti bo, ima realno več moči kot Papež in Obama combined.
Kdor ima 1 promilo možnosti, da tisti bo, ima realno več moči kot Papež in Obama combined.
Man muss immer generalisieren - Carl Jacobi
T-h-o-r ::
"A, seveda. Odvisno je samo, po čigavo bo. Kdor bo zmagal v dirki za SAI, bo precej določil. Razumljivo."
totalno nesprejemljivo
totalno nesprejemljivo
Why have a civilization anymore
if we no longer are interested in being civilized?
if we no longer are interested in being civilized?
Thomas ::
Tud prov. Boš ti naredil tako, da bo sprejemljivo.
Man muss immer generalisieren - Carl Jacobi
snow ::
A, seveda. Odvisno je samo, po čigavo bo. Kdor bo zmagal v dirki za SAI, bo precej določil. Razumljivo.
Kdor ima 1 promilo možnosti, da tisti bo, ima realno več moči kot Papež in Obama combined.
Se 100% strinjam.
Random mutation plus nonrandom cumulative natural selection - Richard Dawkins
petrus ::
Kdor bo zmagal v dirki za SAI, bo precej določil.
Pomoje je vseeno, neglede kdo bo kaj določil, se bo smer samodejno poravnala na optimum, veslo nam bo takoj vzeto iz rok.
stati inu obstati
gardener ::
Thomas:
Zakaj takšna kletka ne reši FAI problema?
a) nujnost komunikacijskega kanala med RPOP in nami, ki predstavlja možnost za pobeg, ko sistem doseže dovolj visok nivo inteligence/optimizacijske moči
b) v splošnem velja, da popolna izolacija nekega sistema ni mogoča - kljub temu, da se RPOP nahaja v simuliranem svetu, je ta svet še vedno vsebovan v našem vesolju in ima tako vpliv na okolico računalnika/kletke; sčasoma se bo RPOP zavedel tega dejstva in poskušal izkoristiti ta vpliv ter tako ušel izpod nadzora
c) kako naj bi kletka (celo ob predpostavki, da idealno deluje) rešila problem eksistenčnih tveganj; kaj se zgodi, ko nekdo drug ustvari RPOP, ki ni tako omejen kot naš?
Morda lahko ta ideja odigra neko koristno vlogo pri končnih friendliness testih, kot celovita rešitev pa je neuporabna - RPOP ni opica, ki jo lahko zapreš v kletko in se ob tem počutiš popolnoma varno.
Mimogrede, čemu skrivati podrobnosti, če je ideja res tako dobra, kot naj bi bila - je ne bi bilo bolje izpostaviti kritiki in tako odkriti morebitne luknje v designu, glede na to, da se igramo s silami, ki lahko razstavijo zvezde... !?
Ampak mene AI sploh ne zanima! Mene zanima rezultat programa, ki odgovori na vprašanje - "kaj bi SAI storila v svetu, kjer je samo x86 procesor in 100 Giga RAMA?".Če želiš, da bi tvoj program opravljal sploh kako koristno nalogo (npr. našel zdravilo za staranje), mora biti zelo močan optimizator (RPOP) - kar pa je samo drugo ime za (S)AI, ki ni tako prežeto z antropomorfizmom.
Zanima me rezultat tega in takih programov - ne SAI, spljoh.
Drexlerjeva kletka neke sorte. No, mogoče še mau bolj sprijena varianta, o kateri ne bom nič konkretnega rekel.Za ta izraz res še nisem slišal, predvidevam pa, da gre za eno izmed inkarnacij 'AI box'-a.
Zakaj takšna kletka ne reši FAI problema?
a) nujnost komunikacijskega kanala med RPOP in nami, ki predstavlja možnost za pobeg, ko sistem doseže dovolj visok nivo inteligence/optimizacijske moči
b) v splošnem velja, da popolna izolacija nekega sistema ni mogoča - kljub temu, da se RPOP nahaja v simuliranem svetu, je ta svet še vedno vsebovan v našem vesolju in ima tako vpliv na okolico računalnika/kletke; sčasoma se bo RPOP zavedel tega dejstva in poskušal izkoristiti ta vpliv ter tako ušel izpod nadzora
c) kako naj bi kletka (celo ob predpostavki, da idealno deluje) rešila problem eksistenčnih tveganj; kaj se zgodi, ko nekdo drug ustvari RPOP, ki ni tako omejen kot naš?
Morda lahko ta ideja odigra neko koristno vlogo pri končnih friendliness testih, kot celovita rešitev pa je neuporabna - RPOP ni opica, ki jo lahko zapreš v kletko in se ob tem počutiš popolnoma varno.
Mimogrede, čemu skrivati podrobnosti, če je ideja res tako dobra, kot naj bi bila - je ne bi bilo bolje izpostaviti kritiki in tako odkriti morebitne luknje v designu, glede na to, da se igramo s silami, ki lahko razstavijo zvezde... !?
gardener ::
T-h-o-r:
Česa pa si potem dejansko želijo? To bo pač potrebno ugotoviti z neko obliko ekstrapolacije želja... in kaj se bo zgodilo, ko bo ta vrnila rezultat, s katerim se nek pedofil ne bo strinjal? Lahko si predstavljaš, da bo k njemu prišla njegova modrejša različica (kopija s povečanimi intelektualnimi sposobnostmi) in se pogovorila z njim ter ga usmerila na pot, ki vodi v stanje, v katerem se slednja nahaja (kot bi se vrnil v preteklost in vodil svoje korake, le da je razlika v 'modrosti' med teboj in tvojo ekstrapolacijo mnogo večja).
Vendar to je le moje ugibanje o tem, kakšen bo rezultat ekstrapolacije - tudi to, kako bi se bilo dobro spopasti z dilemo pri kateri naše trenutne vrednote niso kompatibilne z ekstrapoliranimi, je namreč zajeto v sami ekstrapolaciji. Z drugimi besedami, odgovori na vprašanja kot je "ali bi bilo dobro enostavno spremeniti motive pedofilov, brez njihovega privoljenja?" se nahajajo v njihovih (resničnih) željah in te želje bo poiskal proces ekstrapolacije - če se ti zdi igranje s tvojimi motivi, kot ga omenja Thomas, nedopustno, bo ekstrapolacija to upoštevala in predvidoma do takšnih igric ne bo nikoli prišlo.
---
Thomas:
---
petrus:
...in vsi bomo končali mrtvi - si res želimo tega?!
Podobno kot teroristi, si tudi oni v resnici ne želijo tega, kar izkazujejo s svojim ravnanjem.eudaemon: "Ljudje si želimo zelenih travnikov in lepih deklet"
kaj pa pedofili, če vzamem ekstremni primer :)
Česa pa si potem dejansko želijo? To bo pač potrebno ugotoviti z neko obliko ekstrapolacije želja... in kaj se bo zgodilo, ko bo ta vrnila rezultat, s katerim se nek pedofil ne bo strinjal? Lahko si predstavljaš, da bo k njemu prišla njegova modrejša različica (kopija s povečanimi intelektualnimi sposobnostmi) in se pogovorila z njim ter ga usmerila na pot, ki vodi v stanje, v katerem se slednja nahaja (kot bi se vrnil v preteklost in vodil svoje korake, le da je razlika v 'modrosti' med teboj in tvojo ekstrapolacijo mnogo večja).
Vendar to je le moje ugibanje o tem, kakšen bo rezultat ekstrapolacije - tudi to, kako bi se bilo dobro spopasti z dilemo pri kateri naše trenutne vrednote niso kompatibilne z ekstrapoliranimi, je namreč zajeto v sami ekstrapolaciji. Z drugimi besedami, odgovori na vprašanja kot je "ali bi bilo dobro enostavno spremeniti motive pedofilov, brez njihovega privoljenja?" se nahajajo v njihovih (resničnih) željah in te želje bo poiskal proces ekstrapolacije - če se ti zdi igranje s tvojimi motivi, kot ga omenja Thomas, nedopustno, bo ekstrapolacija to upoštevala in predvidoma do takšnih igric ne bo nikoli prišlo.
---
Thomas:
A, seveda. Odvisno je samo, po čigavo bo. Kdor bo zmagal v dirki za SAI, bo precej določil. Razumljivo.Če bo SAI zasnovan po principih, ki jih podpira Singularity Institute, ne bo nihče direktno določil njenih ciljev - ustvarili bomo le proces, ki bo poiskal prave cilje, po nekem dobro definiranem postopku.
---
petrus:
Pomoje je vseeno, neglede kdo bo kaj določil, se bo smer samodejno poravnala na optimum, veslo nam bo takoj vzeto iz rok.
...in vsi bomo končali mrtvi - si res želimo tega?!
Zgodovina sprememb…
- spremenilo: gardener ()
T-h-o-r ::
torej bo AI odločala, kaj si nekdo resnično želi, ne pa le-ta sam
tako, kot velika večina tukaj na forumu ve, da je bila jugoslavija kurac, čepav je mnenje ljudi na ulici precej drugačno
ampak tisti itak ne vedo
thomas, jype in podobni tu na forumu vedo, kaj komu paše :)
tako, kot velika večina tukaj na forumu ve, da je bila jugoslavija kurac, čepav je mnenje ljudi na ulici precej drugačno
ampak tisti itak ne vedo
thomas, jype in podobni tu na forumu vedo, kaj komu paše :)
Why have a civilization anymore
if we no longer are interested in being civilized?
if we no longer are interested in being civilized?
Okapi ::
torej bo AI odločala, kaj si nekdo resnično želi, ne pa le-ta samTako kot vedno. Tisti, ki misli, da je pametnejši, vsem drugim soli pamet.
Zahodnjaki recimo smo prepričani, da je naš pravni sistem pravičnejši od šeriatskega, in ga vsiljujemo muslimanom, kjerkoli je to mogoče.
AI pa bo mogoče nam vsilil nekaj, kar nam ne bo všeč. Seveda v naše dobro. Sprva mogoče tega ne bomo razumeli, mogoče se bomo proti temu celo borili, ampak sčasoma nas bo menda srečala pamet in bomo sprevideli, da nam je AI hotel samo dobro.
O.
innerspace ::
AI pa bo mogoče nam vsilil nekaj, kar nam ne bo všeč. Seveda v naše dobro. Sprva mogoče tega ne bomo razumeli, mogoče se bomo proti temu celo borili, ampak sčasoma nas bo menda srečala pamet in bomo sprevideli, da nam je AI hotel samo dobro.
Heh! :)
Morda bi bilo dobro, da ljudi sploh ni na tem planetu..?
Smo res tako naravnani, da bi sprejeli kaj tako 'dobrega' kot bi bilo unicenje cloveske vrste, pa magari za 'dobro' planeta?
No, verjetno se nas da se malo optimizirat, kam to vodi?
Heh:)
Heh! :)
Morda bi bilo dobro, da ljudi sploh ni na tem planetu..?
Smo res tako naravnani, da bi sprejeli kaj tako 'dobrega' kot bi bilo unicenje cloveske vrste, pa magari za 'dobro' planeta?
No, verjetno se nas da se malo optimizirat, kam to vodi?
Heh:)
Donate BTC here: 35KR84u3rXN3in1kCw9YHRz4WF3r5kfFF4
T-h-o-r ::
torej bo AI odločala, kaj si nekdo resnično želi, ne pa le-ta samTako kot vedno. Tisti, ki misli, da je pametnejši, vsem drugim soli pamet.
Zahodnjaki recimo smo prepričani, da je naš pravni sistem pravičnejši od šeriatskega, in ga vsiljujemo muslimanom, kjerkoli je to mogoče.
AI pa bo mogoče nam vsilil nekaj, kar nam ne bo všeč. Seveda v naše dobro. Sprva mogoče tega ne bomo razumeli, mogoče se bomo proti temu celo borili, ampak sčasoma nas bo menda srečala pamet in bomo sprevideli, da nam je AI hotel samo dobro.
O.
če bi muslimani sami bili tako navdušeni nad šeriatskim pravom, se ne bi v tako ogromnem številu preseljevali v evropo pa še kam drugam
Why have a civilization anymore
if we no longer are interested in being civilized?
if we no longer are interested in being civilized?
donfilipo ::
T-h-o-r>> če bi muslimani sami bili tako navdušeni nad šeriatskim pravom, se ne bi v tako ogromnem številu preseljevali v evropo pa še kam drugam
Zadeva je malce kompleksnejša. Ker ga potem včasih skoraj na silo skušajo uveljavljati, tudi v obljubljenih deželah in imamo angleže, ki bi jih človek imel za filozofe prava, ko uvajajo interni paralelni sistem šeriatskega prava. Muslimani večinoma bežijo pred nizkim brezupnim standardom. To je tu sicer off topic...pa vseeno.
Ljudje znamo svoje pozemsko pritlehne travme prenašati v povsem drug koncept veliko večjih produktivnosti in kapacitet. To se bo nedvomno zgodilo. Vprašanje ki ostane je, ali bo naše zaostalo pravo in morala povožena in zracionalizirana samo do meje, ko bomo še prepoznavno ista bitja...ali pa bomo tako po kmečko gledano v svoji pozemskosti res postali povsem odveč, in bomo transormirani v drug boljši koncept.
Zadeva je malce kompleksnejša. Ker ga potem včasih skoraj na silo skušajo uveljavljati, tudi v obljubljenih deželah in imamo angleže, ki bi jih človek imel za filozofe prava, ko uvajajo interni paralelni sistem šeriatskega prava. Muslimani večinoma bežijo pred nizkim brezupnim standardom. To je tu sicer off topic...pa vseeno.
Ljudje znamo svoje pozemsko pritlehne travme prenašati v povsem drug koncept veliko večjih produktivnosti in kapacitet. To se bo nedvomno zgodilo. Vprašanje ki ostane je, ali bo naše zaostalo pravo in morala povožena in zracionalizirana samo do meje, ko bomo še prepoznavno ista bitja...ali pa bomo tako po kmečko gledano v svoji pozemskosti res postali povsem odveč, in bomo transormirani v drug boljši koncept.
In times of Universal Deceit, telling the truth
becomes revolutionary act. Orwell
becomes revolutionary act. Orwell
Thomas ::
Če želiš, da bi tvoj program opravljal sploh kako koristno nalogo (npr. našel zdravilo za staranje), mora biti zelo močan optimizator (RPOP)
Lahko mi da samo odgovor, kaj bi bil RPOP-ov rezultat. Ni treba, da RPOP kadarkoli laufa zares. To je Drexlerjeva kletka, kakor jo jaz razumem.
Ni treba da pride RPOP kadarkoli "iz knjige" ven. Samo IZRAČUNAMO, kaj bi bilo če ...
Man muss immer generalisieren - Carl Jacobi
WarpedGone ::
Lahko mi da samo odgovor, kaj bi bil RPOP-ov rezultat. Ni treba, da RPOP kadarkoli laufa zares.
Mašina, ki ti vrne rezultat RPOP, je zopet le RPOP. Bljižnic ni.
Zbogom in hvala za vse ribe
Thomas ::
Res je, bližnjic ni, so pa daljšnjice! Kot bi z računalnikom izračunal, kaj se bo zgodilo, če namećeš 30 kg urana na en kup.
Nobene atomske bombe nikjer, sam po daljši poti izračunan njen rezultat.
A rezultat A bombe je trivialen, gledano kot rezultat.
Rezultat o učinkih RPOPov na karkoli, pa dostikrat ni trivialen. "Ukradeno" znanje hipotetičnim sistemom.
Nobene atomske bombe nikjer, sam po daljši poti izračunan njen rezultat.
A rezultat A bombe je trivialen, gledano kot rezultat.
Rezultat o učinkih RPOPov na karkoli, pa dostikrat ni trivialen. "Ukradeno" znanje hipotetičnim sistemom.
Man muss immer generalisieren - Carl Jacobi
Thomas ::
Ko še nisem bil star 10 let, sem skušal najti razpoko v šahovskih pravilih. Precej ur sem namenil razmišljanju kaj bi utegnilo biti nelogično ali kako drugače narobe s pravili šahovske igre. Kljub temu, ali pa prav zato, sem se k temu problemu, ki sem si ga bil sam zastavil, vrnil še večkrat v kasnejših letih in desetletjih.
Je odveč povedati, da nisem našel nič?
Postal sem dokaj prepričan, da ni nič narobe, da so pravila rock solid. Jasna stvar. Na konzistentnost šaha bi stavil glavo marsikdo.
Vendarle se je zgodilo! En "mudel" je prignal kmeta pred kraljem do konca in ga promoviral v trdnjavo. V naslednji potezi pa je potegnil trdnjavo nazaj pred kralja in skočil z njim čeznjo, na e3!
Naredil je rošado, ki je bila dovoljena pod štirimi pogoji. Kralj še ni bil premaknjen, trdnjava še ni bila premaknjena, med njima ni bilo nobene figure in nobena črna figura ni tolkla na to linijo.
Po letu dni razprav, je FIDA dopolnila pravila, da mora rank kralja in trdnjave biti enak, če hočeš roširati. Dodali so patch v pravila, ki so bila dotlej ... recimo nepopolna.
No, mene je izučilo. Če še šah ni bil waterproof, kako je šele z mnogo bolj kompliciranimi predpostavkami. Kot recimo s paketom znamke SIAI.
Je odveč povedati, da nisem našel nič?
Postal sem dokaj prepričan, da ni nič narobe, da so pravila rock solid. Jasna stvar. Na konzistentnost šaha bi stavil glavo marsikdo.
Vendarle se je zgodilo! En "mudel" je prignal kmeta pred kraljem do konca in ga promoviral v trdnjavo. V naslednji potezi pa je potegnil trdnjavo nazaj pred kralja in skočil z njim čeznjo, na e3!
Naredil je rošado, ki je bila dovoljena pod štirimi pogoji. Kralj še ni bil premaknjen, trdnjava še ni bila premaknjena, med njima ni bilo nobene figure in nobena črna figura ni tolkla na to linijo.
Po letu dni razprav, je FIDA dopolnila pravila, da mora rank kralja in trdnjave biti enak, če hočeš roširati. Dodali so patch v pravila, ki so bila dotlej ... recimo nepopolna.
No, mene je izučilo. Če še šah ni bil waterproof, kako je šele z mnogo bolj kompliciranimi predpostavkami. Kot recimo s paketom znamke SIAI.
Man muss immer generalisieren - Carl Jacobi
Okapi ::
Hmmm, zakaj pa je bilo sploh treba spremeniti pravila? Zakaj naj bi bila tista pravila prej nepopolna? Pač so dopuščala še takšno vertikalno rošado. Kaj je narobe z njo?
O.
O.
Thomas ::
Po moje nič. Glede na dotedanja pravila - formalno nič. Vendar ko je prvi tako potegnil, je sprožil veliko polemiko. Saj je te finte, do takrat ni nihče niti našel!
Moj point je pač ta, da se "hudič" lahko skriva kjerkoli. Čepi, kjer so že mnogi šli mnogokrat mimo - in ga niso videli.
Moj point je pač ta, da se "hudič" lahko skriva kjerkoli. Čepi, kjer so že mnogi šli mnogokrat mimo - in ga niso videli.
Man muss immer generalisieren - Carl Jacobi