» »

Protokol

Protokol

Temo vidijo: vsi
««
110 / 182
»»

guest #44 ::

Jst je izjavil:

Nasprotno. To je samo še en dokaz, kako je inteligenca služabnik. IQ 200, pa se človek ubije. Še tista neznanska inteligenca najde način za samomor, ki so ga zahtevala čustva.

Da bo inteligenca zraven umrla, je ne moti. Niti da bi živela. Inteligenca samo služi čustvom, pa kakršna že so.


Škoda, da sem zamudil tisto debato o metodi CEV, ker imam veliko za povedati o njej. Kako je zgrešena, namreč. Bom, ampak prvo bom odgovoril na vprašanje samomora.

Lahko jih delimo na dve kategoriji.

Prvi so ljudje, ki storijo samomor v izbruhu čustev. Ampak verjeli ali ne, teh je manjšina.

Druga kategorija samomorilcev - oziroma ljudje, nagnjeni samomoru - večinoma tehtajo, brez čustev, pozitivne in negative strani svojega življenja ali situacije v kateri so. Samomor je pri večini ljudeh racinalna odločitev. Vsaj pri tistih, ki o tem razmišljajo kar nekaj časa, včasih tudi mesece, preden se tehtnica nagne v smer, da ni vredno
več živeti.

Ko zračunajo svojo odločitev in če se odločijo za to dejanje, ponavadi izberejo tudi čas, kdaj se bodo ubili in tudi način.

V času, ki si ga določijo, da jim ostane, so dejansko zelo srečni (ljudje se v tem času opisujejo kot zelo srečni, tako tudi delujejo navzven in jaz verjamem, da kar je intiligenca zračunala, da dejansko *so* v tem času zelo srečni), poštimajo še nekaj stvari v svojem življenju - recimo v mojem primeru, bi našel dobrega lastnika svojega psa - se ljudem opravičijo, zahvalijo, kaj kupijo, pač kar se odločijo, da morajo še postoriti, preden gredo.

Ko to postorijo, tudi če kdo, ki se spozna na te zadeve, je zelo težko človeku to potem preprečiti.

Okoli samomorov je bilo veliko dezinformacij. Šele v tem desetletju so raziskovalci psihologi/psihjatri/sociologi/... presenečeno ugotovili, kako racionalno/intiligentno se ljudje odločijo, oziroma pretehtajo določene aspekte svojega življenja in nato storijo samomor.

Kakšen zaključek boste ven iz tega potegnili, je vaša stvar. Moje mnenje je, da se te ljudje *intiligentno* in tudi povsem *racionalno* iz njihovega vidika, odločijo za svoje dejanje. Kaj jih pripelje do te točke preloma, je pri vsakem človeku drugače, ampak naj še enkrat poudarim: zelo zelo malo ljudi stori samomor v izbruhu čustev.


---

CEV, to je pa zabloda. eudamon je pa pisal svoje prispevke tako, kot da bi prepisoval Yudowskega. (Kar pa ne pomeni, da se strinjam s Thomasom in njegovim pogledom na Protokol, naj bo takoj jasno.)

Čeprav sem že pisal, kaj je narobe pri CEV in njegovem Last Judge, bom še enkrat in potem primerjal, koliko se mi je mnenje spremenilo. Upam, da bom imel čas še danes, ker je to zelo obsežna tematika.



Odlično povedano!

Lonsarg ::

Ok racionalno se odločijo, racionalno pa nima niti trohice skupnega z inteligenco, očitno pojem inteligenca drugače razumeva. Racionalna odločitev je še vedno metačustvena odločitev, samo ne na podlagi trenutnih čustev ampak tistih res globjih. Najprej moraš ŽELET nekaj pametnega v lajfu smiselnega počet, šele potem se lahko inteligenca, ker nič pametnega ne izračuna za počet vrže kot output na željo/želje(ponavadi jih imamo v sebi več, ki se med sabo tepejo, pa sploh ni dobro definirano katero je pomembnejše), da je samomor odločitev. Zmeraj je ena želja, nekaj kar začne vso stvar zadaj.

gardener ::

Jst:
Škoda, da sem zamudil tisto debato o metodi CEV, ker imam veliko za povedati o njej. Kako je zgrešena, namreč.

Nisi je zamudil, samo meni zadnji čas primanjkuje energije za spremljanje tega foruma, bom pa v prihodnje gotovo prebral kar imaš povedati.

Mimogrede, Last Judge je grd hack dodan CEV, ki na samo jedro ideje nima nekega vpliva. Moram priznati, da se mi vsaj v kontekstu končne implementacije zdi celo nepotreben (v nasprotju z uporabnostjo pri morebitnem testiranju omejenih modelov) in zaradi tega njegova kritika nima uničujočih posledic za CEV kot tako, vseeno pa bi jo bilo zanimivo slišati...

Thomas ::

Racionalna odločitev je še vedno metačustvena odločitev, samo ne na podlagi trenutnih čustev ampak tistih res globjih. Najprej moraš ŽELET nekaj pametnega v lajfu smiselnega počet, šele potem se lahko inteligenca, ker nič pametnega ne izračuna za počet vrže kot output na željo/želje(ponavadi jih imamo v sebi več, ki se med sabo tepejo, pa sploh ni dobro definirano katero je pomembnejše), da je samomor odločitev. Zmeraj je ena želja, nekaj kar začne vso stvar zadaj.


Se ne morem bolj strinjat. Točno takole gledam na to reč. Točno takole.

Ostalo je potem več ali manj inteligentna izpeljava iz tega.
Man muss immer generalisieren - Carl Jacobi

Okapi ::

Kaj pa sploh je želja, v razmerju do odločitve?

O.

Thomas ::

Želje generira pa že naš genom, v kooperaciji z okoljem. To se skompjuta na najnižjem nivoju, kaj bi rad pravzaprav, v teh okoliščinah. Tja nimamo dostopa.

Hardwired odziv na okoliščine.

Eni se dost zgovarjajo okol tega, da ne bi bili radi "headwired". Se ne zavedajo, da so.
Man muss immer generalisieren - Carl Jacobi

Okapi ::

Se ne zavedajo, da so.
Morda so, morda niso. Ti nimaš niti najmanjšega empiričnega dokaza za to.

O.

Thomas ::

Imaš ti kakšen empirični dokaz v drugo smer?

Nimaš.

"Nimaš dokaza", ko ga tudi sam nimaš, ni lih nekaj dovoljšnjega.

Ko dokazov nimata ne varianta A in niti B, potem lahko gledamo njuno logično strukturo. Bolj logična je boljša.

Če sta obe brez empirične preverbe.
Man muss immer generalisieren - Carl Jacobi

Okapi ::

Želje se bolj slabo dedujejo, torej genom bolj ali manj odpade. Okolje seveda vpliva, ampak med človekom in okoljem so v tem primeru njegovi možgani, ki (razumsko, čeprav morda nezavedno) sprejemajo, obdelujejo, filtrirajo in hranijo vse prejete informacije.

O.

Thomas ::

Želje se dedujejo. Če tvoj predniki niso želeli imeti sexa, ga ne želiš niti ti.

In tako naprej. Samo take želje imaš, ki so zevolirale.
Man muss immer generalisieren - Carl Jacobi

Okapi ::

To niso želje, ampak nagoni, in tudi nagoni so pri ljudeh zelo sfiltrirani in predelani v razumskem delu možganov.

Anoreksija je recimo zaradi mode (se pravi kulturno pogojeno) sfiltriran nagon po prehranjevanju. In se ne deduje.

Tudi homoseksualnost ali celibat (želja po seksu) se ne deduje.

O.

Zgodovina sprememb…

  • spremenil: Okapi ()

Lonsarg ::

Saj ne veš posledica kolkih nagonov/želja je homoseksualnost, lahko miljone, ne vemo, smo kar kompliciran narjeni ljudje. Direktno želja po homoseksualnosti seveda ni v genih, se pa pojavlja kot posledica katerih drugih, glede na okolje najbrž.

Thomas ::

Ahjej, preproščina, Okapi.

Anoreksija je pač odklanjanje hrane, ker si človek bolj želi nečesa drugega. Statusa v družbi, ki ga bo za vitkostjo po njegovem (njenem) s tem pridobil.

Zgodi so, da so želje destruktivne, avtodestruktivne, ker smo pač v biološki evoluciji skupaj skrpucani.
Man muss immer generalisieren - Carl Jacobi

guest #44 ::

Želja po vitkem telesu vodi v anoreksijo, to je res. Ampak to vse izvira iz hardwired nagona po širjenju svojega dednega materiala (torej reproduciranje).

Kaj pa primeri, ko z aktivnim delovanjem spremeniš izražanje genov (kako se že temu reče...so pred kratkim odkrili)? A ni to da dejansko želja, prisili inteligenco da spremeni željo in s tem ustvari novo? (dobro en gen, vrjetno ni neka bistvena sprememba...a vendar gre za neko reprogramiranje).
Ok se strinjam, da je želja bila prej a vendar smo spremenili neko hardwired željo preko aktivnega delovanja, ki se bo naprej prenašala.

Ampak vseen...npr, če se oseba odloči naredit samomor čisto na "matematični" osnovi, torej pač poskusi drugo izbiro namesto življenja. Je to ševedno izključno le domena hardwired želja? Jz vidim to tako, da je prav inteligenca omogočila novo paleto želja, ki prej niso bila na volj. Tko, da inteligenca ni izključno tam nek žepni kalkulator kot si eni predstavljajo. Ima neko medsebojno delovanje.

Kaj pa "Turn the other cheek" od Jezusa & Co.? Kako bi lahko brez inteligence taka ideja sploh nastala? Namreč, po vašem mnenju, smo hardwired-ani, da tega ne moremo zevolvirati...a vendar smo, in to z pomočjo inteligence, ki je nam odprla druge možnosti.

Thomas ::

Tehnologija ti pa omogoča dostop do "inicialnega setupa", nedvomno.

Kaj boš storil?

Karkoli že, moralo je biti dopuščeno v tem inicialnem setupu, pa čeprav potem morda ne bo več.
Man muss immer generalisieren - Carl Jacobi

guest #44 ::

Sem hotu rečt, da pravzaprav inteligenca definira kaj si želi. To pa naredi tako, da se sklicuje na tiste osnovne nagone...torej hrana, razmnoževanje in izogibanje nevarnosti (na kratko, preživetje).

Nagoni =|= želje (IMO)


Radovednost je še ena taka...bolj kot ne, metaželja. Načeloma tudi izvira iz nekega nagona, saj tisti ki je bil bolj radoveden je imel več možnosti za preživetje. Sam radovednost pa že zahteva višjo stopnjo razumevanja in povezovanja (torej inteligence). Kaj je blo prej vprašanje, jz mislim da je bila inteligenca pred radovednostjo oz inteligenca pogojuje radovednost.
To pomeni, da je inteligenca vnesla novo lastnost, ki se lahko deduje naprej...Bolj kot je bila žval pametna več je bila radovedna in boljše je preživela. In tako sedaj imamo novo željo (želja po spoznavanju novih stvari), ki je pravzaprav posledica inteligence.

Lonsarg ::

Evolucija ne deluje po principu samoprogramiranja. Pač pa random mutacij in bolše preživi. In seveda tako so tudi nastale random nove stvari. AI, ki bi se sam preprogramiral pa če ne bi imel takih evolucijskih random stvari notri ne bi nikoli dobil nove želje/ukaza. Tak da lahko komot naredimo ultrapametni AI, samo previdno vseh random preprogramiranj se mormo izognit ša bo ta AI naš suženj, ne bo nič z pametjo pridobil volje po samoohranitvi. Z pametjo bo pridobil samo pamet.

Thomas ::

Manj pametni živali je večja radovednost liability, bolj pametni je morda asset. Nismo toliko radovedni, kot bi bilo inteligenci ljubo, pač pa kolikor je nekako optimalno za preživetje.

Izjemna inteligenca ni vedno boljša za preživetje, tako kot tudi velikost ali fizična moč ne. To oscilira v zgodovini. Ljudje nekega obdobja so povprečno manjši, drugega večji. Z inteligenco je podobno.

Vse funkcionalnosti so de facto v službi preživetja. Če dobro služijo, je take oblike veliko naokrog.

Z pametjo bo pridobil samo pamet.


Pričakovati skrnobnost kot emergency property of intelligence, kar ljudje stalno delajo, je popolnoma neutemeljeno. Še tako superinteligentna entiteta, si brez začetnega motiva, ne bo šla iskat drugih ali novih motivov. Niti svojega prvega motiva si ne bo mogla najti, če nobenega nima. Pa imela IQ 10^100 točk.

To je res dobro razumeti.
Man muss immer generalisieren - Carl Jacobi

Okapi ::

Evolucija ne deluje po principu samoprogramiranja.
Ne bo držalo. To velja do pojava učenja. Ko se naučeno lahko prenese na potomce, se zakonitosti začenjajo spreminjati in pri ljudeh so s kulturo že močno drugačne.

O.

guest #44 ::

Razumem, zdej pa mi povej zakaj ko špilam kako igro se kakšenkrat zgodi nekaj čudnega, izven namer programerjev?

...ker...

Ker je nepopolno bitje, napisalo program. Torej dokler bo manj popolno želelo pisat bolj popolno bodo vedno kaki bug not. Vem da procesorje že dezajnirajo programi in ne več ljudje, ampak tam so robni pogoji in cilji točno določeni. Skoraj tako kot, da bi excelov solver uporabljal.

Tu pa je tudi problem, neskončne nedoločljivosti...ne bo znal rešit problema brez, da bi pač enkrat nekaj random probal.

Thomas je izjavil:

Manj pametni živali je večja radovednost liability, bolj pametni je morda asset. Nismo toliko radovedni, kot bi bilo inteligenci ljubo, pač pa kolikor je nekako optimalno za preživetje.

Izjemna inteligenca ni vedno boljša za preživetje, tako kot tudi velikost ali fizična moč ne. To oscilira v zgodovini. Ljudje nekega obdobja so povprečno manjši, drugega večji. Z inteligenco je podobno.

Vse funkcionalnosti so de facto v službi preživetja. Če dobro služijo, je take oblike veliko naokrog.

Z pametjo bo pridobil samo pamet.


Pričakovati skrnobnost kot emergency property of intelligence, kar ljudje stalno delajo, je popolnoma neutemeljeno. Še tako superinteligentna entiteta, si brez začetnega motiva, ne bo šla iskat drugih ali novih motivov. Niti svojega prvega motiva si ne bo mogla najti, če nobenega nima. Pa imela IQ 10^100 točk.

To je res dobro razumeti.



Seveda, zato taka AI bo povsej vrjetnosti imela v štartu programirano...hrana, razmnoževanje, izogibanje nevarnosti,...

Zgodovina sprememb…

  • spremenilo: guest #44 ()

Thomas ::

To še vedno ni samoprogramiranje v tvojem smislu. To je še vedno samo ekspresija neke stare funkcionalnosti.

Denimo, da imamo genom pod kontrolo. Kaj lahko naredimo? 12 zelenih papkov iz glave, nikakor ne. Ostrovidnost vsekakor ja. Samo tisto, česar si želimo zase, ali za svoje potomce.

Če smo tolikanj sprijeni, da si želimo, da imajo naši potomci neke random lastnosti, potem jih bodo imeli. A to je utemeljeno v tej naši "sprijenosti", če ta v resnici je.

Ker je nepopolno bitje, napisalo program.


Lahko se zgodi nekaj, česar to bitje ni predvidelo. Kot gre staro reklo. Računalnik naredi, kar mu rečeš, ne kar misliš da si mu rekel. Odtod diskrepanca.

ne bo znal rešit problema brez, da bi pač enkrat nekaj random probal.


Možno. A to osnovne teze, ki jo zagovarjam, nič ne spremeni. Pomeni samo, da je naš inicialni setup dangerous for us. Nič nepričakovanega.
Man muss immer generalisieren - Carl Jacobi

Saladin ::

Pomeni samo, da je naš inicialni setup dangerous for us. Nič nepričakovanega.

Ta tvoj setup te je privedel "this far" in na temelju njega boš tudi nadalje dizajniral in ustvarjal Protokol (SAI, CEV,...)

Podaljševanje svojega življenje in življenja bližnjih, minimiranje paina in maksimiranje pleasurja vsi razumemo in po teh načelih delujemo že ducat tisočletij.

And it was good (brutto gledano).

Zakaj torej siliti v neko povsem novo zverino, ki je ne poznaš in ki dejansko zmanjša ali ukinja neke od naših osnovnih značilnosti (izjema so kataklizme, kjer pač moraš improvizirat)?

Zakaj ne do skrajnosti optimirat naše klasične (umske) značilnosti, z posledicami, ki se jih lahko zamislimo?

Zakaj ne my specific mutation + my specific selection = my specific choice of p/p brez nevarnosti nepovratnih in trajnih hell scenarijev in z kontrolo nad svojo bodočo usodo?

Morda takole: Če se bom uploadal, hočem imeti vsaj eno trajno kopijo sebe v izvirnem stanju (v backupu) in vsaj eno instanco, ki se razvija z čisto vsemi značilnosti mene kot Homo Sapiensa. Nič manj od tega ne sme biti - hočemo pa seveda še veliko več. Samo več - nič manj.
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

guest #44 ::

Thomas ti ki se ukvarjaš z digitalno evolucijo (žal nisem še uspel pogledat predavanje), povej mi nekaj in pač popravi me če se motim.

A ni dejansko lažje (pravzaprav edino mogoče) narediti bolj popolno bitje tako, da prepustimo random evolucijo? Če prav razumem se random tako ali tako ne da v računalniškem zapisu naredit, ampak random je le zelo zapletena kombinacija. Neglede na to, je pač lažje prepustit superračunalniku (z nekaj primarnimi inputi), da sam testira veliko kombinacij in vzame tisto, ki se mu zdi boljša?

Torej če bi to veljalo, bi AI pravzaprav evolviral kot ostala bitja, le razlika bi bila, da bi sam iztrebil nezaželene lastnosti (ki niso primerne za dano situacijo), namesto prepustil počasni naravni selekciji. Torej, zakaj ni možno, da bi zevolviral v tak AI, ki bi se zelo počasi razvijal...namreč tako bi minimiziral porabo energije (torej dlje živel), užitka podenotam pa bi temu primerno skrčil, le da se te podenote ne bodo zavedale, da dejansko imajo manj užitka...ker one bodo imele užitka le toliko kolikor bo protokol izračunal, da se v dani situaciji splača.

Če bi hotu to preprečit, bi moral ovrednotit skrb za iskanje večjega užitka pred skrb za čim daljšo preživetje. Tu pa končamo v isti situaciji kot je sedaj človeštvo...hitimo toliko naprej v iskanju užitka, da ne razmišljamo kaj pravzaprav počnemo. Mislim, da bi superinteligenca prav tako počela. Z večanjem sposobnosti se tudi večajo zahteve, tako da neto sposobnost bo vrjetno prav tako...nezanesljiva.

Zgodovina sprememb…

  • spremenilo: guest #44 ()

Thomas ::

‘don’t play it down, that’s the ecstatic vision driving us all, me included – and when it happens the ecstasy lasts several times longer than this universe has already existed. Believe me, it really is worth the effort.’


Tako nekako tudi jaz mislim.

Ostalo so tehnične podrobnosti, detajli. IMHO.
Man muss immer generalisieren - Carl Jacobi

Thomas ::

Vprašanje je, kako se bosta definirali "Svetla stran" in "Temna stran".

Vsak, ki ceni Naravo in njeno "intristično vrednost", mu je kristalno jasno, da je "on the bright side". Meni je še bolj jasno, da je on "on the dark side".

Tako ene par velikih šizm (razkolov), ki nas delijo, da se niti ne strinjamo kdo je na pravi in kdo na napačni strani vprašanja. Pa seveda nikakor nimam tukaj v mislih kakšne "levo, desne" politične delitve, ki je tukajle popolnoma presežena, deplasirana. Nepomembna.

Velike delitve so okoli tega:

1 - se sme ali celo mora, pomašinati vse (dosegljivo) Vesolje za Protokol?

2 - se sme ali celo mora, določiti nek (visokooptimalni) wirebrain za vse sentience?

3 - ima "super happy humanity" absolutno prednost pred "eudenomic life" v smislu Bostroma?

4 - je "semi eternal immense happiness" največ na kar lahko upamo?

5 - višji smisel od tega, je samo iluzija in napačna uporaba naravnega jezika?

Po moje je odgovor na vse to pritrdilen in mislim da sem s tem "na svetli strani", ki bo prevladala.

Pick your side!
Man muss immer generalisieren - Carl Jacobi

innerspace ::

1 - se sme ali celo mora, pomašinati vse (dosegljivo) Vesolje za Protokol?

Vesolje ze fura po protokolu, le da ni lih tak, po merah trenutnih cloveskih zelja. Protokol ni nova ideja, je le podmnozica podmnozice...
Ce naj se opredelim glede predlaganega protokola, nisem za. Niti proti, ce sem iskren.

2 - se sme ali celo mora, določiti nek (visokooptimalni) wirebrain za vse sentience?


To je tudi 'naraven' proces, ki ga se ne dojemamo. Vsak effort na tem podrocju se mi zdi dobrodosel.

3 - ima "super happy humanity" absolutno prednost pred "eudenomic life" v smislu Bostroma?


Zal ne vem kaj je 'eudenomic life'. Super happy humanity pa je en wishful thinking, osnovan na nekih predpostavkah, ki niso dovolj jasno izrazene in tudi ne dovolj kriticno predelane.

4 - je "semi eternal immense happiness" največ na kar lahko upamo?


Podobno kot pri st.3...happiness is a state of mind, which is absolutely arbitrary:)
Lahko upamo na vec.

5 - višji smisel od tega, je samo iluzija in napačna uporaba naravnega jezika?

Visji smisel od tega je preseganje iluzije, ki jo postavis kot najvisji cilj ali smisel obstoja. Go figure it.

My side? I pick both sides, only one is never enough.
Donate BTC here: 35KR84u3rXN3in1kCw9YHRz4WF3r5kfFF4

Jst ::

>Pomeni samo, da je naš inicialni setup dangerous for us. Nič
>nepričakovanega.

Zato pa *nam* ne bi prepustil pisanja Protokola. Protokola v smislu robnih pogojev, kakršni so analogno fizikalni zakoni, ki veljajo v našem vesolju.


>3 - ima "super happy humanity" absolutno prednost pred
>"eudenomic life" v smislu Bostroma?

Ti bi določil v naprej "super happy možnosti/pravila scenarijev," jaz pa nikakor ne. Če bom 10^100krat pametnejši, bom mogoče želel igrati kot figura kmeta na šahovnici, ki je velika 100x100 polj in bo adrenalin tekel v potokoh, ker ne bom vedel, katero potezo bo potegnil igralec, ki igra z mano. Me bo žrtvoval za skakača ali bo naredil kakšno drugo potezo.

Sedaj se to sliši absurdno ampak ne moreš vedeti, da kar je hell za nas sedaj, da bo hell universe za nas tudi v post humani družbi.

Jaz osebno mislim, da prvi pravi AI ne bo odgovoren za singularnost. Stavim na več projektov, ki bodo enkrat začeli komunicirati med seboj brez omejitve našega bednega jezika. Zato bodo med seboj konvergirali in takrat nastopi singularnost.

Jaz *hočem*, da Protokol (v pomenu zgoraj) napiše AI, in to šele takrat, ko bo nam sama predlagala pravila. Kar pomeni, da sama pride do spoznanja, da pokuri vse atome na voljo za naš obstoj. Mislim, da se bo to zgodilo relativno hitro, kaj kmalu po začetku obstoja prvih AI.

Če pa Protokol napiše človek, pa mora nujno napisati Protokol v maniri FOL (First Order Logic), kar pa avtomatsko izloči prepovedi raznih hell scenarijev (zaradi raznolikosti želja ljudi). No, tukaj se strinjam z Yudovskim, da lahko nevede izločimo "prave" scenarije, kot bi si jih želeli, če bi bili pametnejši. Ampak Yudowski ne uvidi, da z CEV počnemo pa druge neumnosti.

Kompleksnost lahko naraste samo do neke meje, potem nastopijo problemi. Simulacija simulirane naraščajoče kompleksnosti nas pripelje do upočasnitev časa, ping na c razdaljah in kar je najpomembneje, lahko se zaciklamo in pri tem pokurimo vso energijo.

Mi te meje nismo sposobni videti. Upamo pa lahko, da jo bo sposobna AI in na podlagi tega napiše The Protokol.



Uff, to je kratka razglednica z moje strani, kritika metode CEV bo morala počakati. Eseje je namreč zamudno pisati. :)
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Thomas ::

Ti bi določil v naprej "super happy možnosti/pravila scenarijev," jaz pa nikakor ne. Če bom 10^100krat pametnejši


Toliko večja inteligenca, bi naprimer šaha, ne mogla igrati bistveno bolje od zdaj najboljših programov. Jaz mogoče vlečem v povprečju drugo najoptimalnejšo potezo, Fritz vleče 1,01 najboljšo, ta inteligenca bi pa kvečjemu vedno prvo najboljšo.

Zgoraj, nad našimi zmožnostmi vseeno ni neskončno prostora. Ga je veliko, neskončno ga pa ni. Preostanejo nam samo dobri scenariji, ki v tisti prostor pašejo. Samo tiste permutacije atomov (no, mogoče kvarkov ali kakšnih subkvarkov, kar pa že dvomim), ki nam dajo znatno količino plesaurja. Niagarske slapove adrenalina, Zalivske tokove serotonina. Digitalnega, ob tem učinku, jasno.

Nek maksimum, ki ga bomo lahko dosegli, je.

Lahko se nam zgodi, da namesto bi "serotonin in adrenalin tekla kakor če pada slap iz zvezde v črno luknjo", bosta "tekla samo kakor kakšno Amazonsko porečje". Relativno slabo in hkrati absolutno dobro, moraš priznati.

Nisem niti prepričan, da je kakorkoli nujno, da the best possible scenarij za ta svet možen, ostane izven našega dosega. Kako se to izraža v adrenalin-serotonin ekvivalentu, ne vem. Lahko je samo potoček, lahko je tak masni tok, kot ga ima zdaj od nas z 0.9 c bežeča galaksija.

Oboje dopuščam.

A oboje in vse ostalo ni tako daleč, ko imaš tapravo orodje in pravila, po katerih se orodje uporablja.

Najteže je mogoče sprevideti, da shriek v Bostromovem smislu je neizogiben. Najbrž zato, ker tisti "smisla polni svetovi post človeštva", sploh ne obstajajo. Mogoče pa tudi da zato, "ker v Parizu ne bomo obiskali najboljšega nočnega lokala, pa bi ga lahko".

Prava figa, pravzaprav.
Man muss immer generalisieren - Carl Jacobi

Jst ::

>Jaz mogoče vlečem v povprečju drugo najoptimalnejšo potezo,
>Fritz vleče 1,01 najboljšo, ta inteligenca bi pa kvečjemu
>vedno prvo najboljšo.

Šahovnico z 100x100 polji še nismo igrali. :)


>Nek maksimum, ki ga bomo lahko dosegli, je.

Seveda. Ti praviš, da boš mejo našel ti/človek, jaz pravim, da je nisi sposoben, da bo za tole poskrbela superintiligenca.


>Najbrž zato, ker tisti "smisla polni svetovi post
>človeštva", sploh ne obstajajo.

Smisla polni svetovi so v celofan zavit bullshit. Sanje opice z kamnom v roki, ki hoče zadeti luno.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Thomas ::

Šahovnico z 100x100 polji še nismo igrali


Se zavedam. Hkrati mi je jasno, da to ni 12.5^2 krat bolj kompleksna igra, kot bi pomislil kdo naiven, ampak 10^kar pecej krst kompleksnejša. Drži.

Ti praviš, da boš mejo našel ti/človek, jaz pravim, da je nisi sposoben, da bo za tole poskrbela superintiligenca.


Ne, človek bo moral ročno določiti robne pogoje tega izračuna. Pa če je to zadnje, kar naredi.

Magari v obliki - kako bi bilo najbolje in hkrati tako, da bi bilo meni zdaj prav, a superinteligenca?

Smisla polni svetovi so v celofan zavit bullshit. Sanje opice z kamnom v roki, ki hoče zadeti luno.


To je ""da bi bilo meni zdaj prav" na steroidih" koncept. Kako zdaj hočem, da bi hotel, da bi bilo. Over pondered nowdays culture, IMHO.
Man muss immer generalisieren - Carl Jacobi

Jst ::

Zakaj? Zakaj ti je tako nepredstavljivo, da imajo morda ravno kriminalci, morilci, posiljevalci,... ključ v njihovem "programu" do načrta sveta, v katerem bomo uživali, ko bomo nepredstavljivo intiligentejši. Pa s tem ne mislim, da bo iz teh ljudi prišel scenarij "nad katerimi bomo pa danes storili genocid."

Jaz ne vem. Bolj mislim da ne, ampak mi ni nepredstavljivo, da morda ravno tisti koleščki, ki jim manjkajo, da so pomembni pri zavedanju užitka superintiligentnih posthumanih ljudi.

Ti bi jih editiral.

Jaz bi prepustil ta problem AI.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Thomas ::

To je mau kavelj 22. Če hočeš not, se moraš pustit editirat. Vsak.

Vendar če te editira AI, ki ni pod nadzorom Protokola, maš lahko hude težave.

Če je pod nadzorom Protokola, je moral Protokol biti napisan na roko, oziroma z delno pomočjo AI.

Če je bil Protokol ročno sestavljen, je komot zgrešen.

Kar precejšnje težave, ampak ne nerazrešljive.

Ena rešitev je ta, da je dovolj preprost in da onemogoča ravno vsega, kar bi kdo hotel. Da te meče v prednapisane scenarije, ali pa da jih menja konzervativno.

Druga je ekstenzivno medsebojno rešetanje in sinhronizacija večih podProtokolov in večih AI. Če kaj ne štima kjerkoli v postopku, gremo na square one.
Man muss immer generalisieren - Carl Jacobi

Lonsarg ::

Ko bo upload izumljen bo vsak imel možost se uploadat po njegovih željah. Da bi prepričal cel planet, da pride v isti protokol je iluzija. Najbrž boš kar downloadal svoj simulator, da boš svoj um dal notri, preko kakih P2P povezav, nobenega nadzora ne bo, vsak bo lahko počel, kar bo hotel.

Karšnkoli poskuš poenotenja vseh UMov v isti protokol bo uspešen samo, če bo pršlo do dogovora po demokratično, med UMi.

"če hočeš notri se pusti editirat" enostavno ne bo delovalo, ker bo si pač nekdo nardilsvoj simulator, da se ne bo editiral, sprejeli se bodo kakšni zakoni tudi, kolikšno editiranje je sploh dovoljeno, da si še smatran kot sentinenca in ne kot program, katerega bi kar izbrisali. To bojo zanimiva leta, mogoče z kakšno vojno.

Z uplovdom se bodo samo prenesle trenutne razmere v digitalno obliko.

Thomas ::

Točno to želimo preprečiti s Protokolom. Eksplozijo kaosa, vojne, digitalne supertorture ...

No, kdor bo imel prvi napol SAI, bo lahko uveljavil svojo vizijo.
Man muss immer generalisieren - Carl Jacobi

Lonsarg ::

Jaz pa hočem da gre po naravni poti, magar kaos naprej, tudi potem ko smo enkrat digitalizirani. Tudi notri ostanejo vse politične stranke države itd. Še naprej se voli ljudi in to.

Thomas ::

Sej to bo čist po naravni poti. Eden pač, bo stišal Protokol.
Man muss immer generalisieren - Carl Jacobi

Lonsarg ::

Naravana pot ni, da en osebek odloči o usodi vseh. Melo se bo lepo referendom, če ne drugega, ne bo pa kar en protokol obveljal. In noben protokol ne bo dokončen, ljudje bodo tudi, ko bodo že notri lepo odločali kako naprej.

Fave ::

_Vse_ gre po naravni poti. Druge poti ni. In, ko se bo enkrat pojavil Protokol ali mogoče celo kaj boljšega, bo to prav tako po naravni poti.

Do tu smo zaenkrat zevolirali in lahko počnemo, kar nam trenutno znanje dopušča.
My mind's a hyper tool that fixes everything.

poweroff ::

Azgad, samo določene temeljne predpostavke pa veljajo. Človekove pravice. Npr. da ima vsakdo pravico do življenja, sreče, itd. O tem ne more biti debate na referendumu, ne?
sudo poweroff

Lonsarg ::

Referendum je zadločitve o "resničnem" svetu. Virtualni svet si itak vsak svojega naredi, torej ne rabiš nobenih pravil sploh, ne vem kako si si predstavljal referendum o tem, kaj lahko drug počne? Vsak lahko vse počne simpl, dokler ne pride do interakcij.

T-h-o-r ::

in ko pride do interakcij, ne bo kaj posebej drugače, kot že je


razen da bomo več vedeli




no nekateri bi nas pa kastrirali
Why have a civilization anymore
if we no longer are interested in being civilized?

Thomas ::

Raje bi videl, če bi rekel "onemogočili delat štalo in kažin", kakor "kastrirat".
Man muss immer generalisieren - Carl Jacobi

T-h-o-r ::

ampak ljudje smo za delat štalo in kažin
Why have a civilization anymore
if we no longer are interested in being civilized?

Okapi ::

Raje bi videl, če bi rekel "onemogočili delat štalo in kažin
Doublespeak FTW;)

O.

Thomas ::

Kažin delaš, da se ljudje razburjajo in hudujejo, zaradi narejene jim škode in nevšečnosti, če ne še kaj hujšega. Recimo zla.

No, kažin vseh kažinov naj bo, da se kažin making onemogoči za vselej!

Lahko začneš žalovanje za "svobodnim sejanjem kažina". No more.

Zadovoljen?
Man muss immer generalisieren - Carl Jacobi

noraguta ::

No, kažin vseh kažinov naj bo, da se kažin making onemogoči za vselej!
zakaj le? pol se morš oslonit res na trne teoretične temlej al pa a neizpodbitno religijo. al pa po vitgenstenevo molčat o zadevah katerih ne več , brez spekulacij ni hipotez iz teh pa ne teorij.
Pust' ot pobyedy k pobyedye vyedyot!

Thomas ::

Ja, trdni teortični temelji so edina šansa. Vendar je težko, ker je še šah protisloven, pa bi se človek skoraj zaklel da ni.

Težka bo. Ampak ne, če bomo imeli superinteligenco aport.
Man muss immer generalisieren - Carl Jacobi

guest #44 ::

Zdej sem se spomnu igre DeusEx. Na koncu sem se odločil proti, hmm....res em zanima kaj bi v resnici naredu.

gardener ::

@Thomas
Ja, žal moram reči, da večina transhumanističnega gibanja podlega iluzijam, kako se da svet narest poljubno dober, po njihovih predstavah.

Ob takšni opazki se ni slabo vprašati, če ne zeva po drugi strani v tvojem razumevanju te tematike kaka luknja ali pa si preprosto dobil napačen vtis. Preveč odlično izobraženih ljudi je namreč (domnevno) na nasprotni strani.

V končnem vesolju, v kakršnem skoraj gotovo živimo, je res nesmiselno govoriti o izboljševanju, ki bi se nadaljevalo v neskončnost - to je menda jasno vsakomur. Vendar se zdi, da tvoja kritika ne leti direktno na to. Zaradi tega bi me zanimalo, v kakšnem smislu je ideja o kontinuirani izboljšavi in skokih na vedno višje hedonistične nivoje tekom raziskovanja postčloveške 'pokrajine bivanja' (*) - dokler pač traja vesolje - v nasprotju s tvojim prepričanjem?

Ker ljudje nismo tako zelo enostavna bitja (z ozirom na motivacijski sistem), kot je npr. hipotetični agent, ki poskuša svet napolniti z malimi kamniti piramidami, tudi naša nebesa niso tako zelo preprosta, kot je vesolje napolnjeno z maks. možnim št. piramid. Tista najboljša možnost za nas je prav lahko postopna rast v neke oblike superinteligentne razume, ali kaka podobna zavita in zapletena primerno počasna pot v skrite kotičke postčloveštva... čemur pa ideja o končnosti vesolja, v vseh njegovih dimenzijah, ne nasprotuje.

(*) Transhumanistične vrednote, prva slika in 3. poglavje.

Najlepši možni trenutek obstaja in s superinteligenco si najbrž lahko kmalu tam. Potem ali pustiš da traja, ali pa da niha v "spodnji okolici".

Mislim, da je ključna razlika med nama tule sledeča: tebi predstavlja najboljši možen izid za človeštvo Orgasmium ali pa neka druga, skozi moje oči podobno omejujoča konfiguracija kot je npr. Protokol v prvotni obliki (virtualni svet v katerem uživamo v množici raznolikih scenarijev), medtem ko sam vidim superiornejše alternative v svetu kot ga opisuje Fun Theory ali pa transhumanisti Bostromovega tipa.

Moj sedanji ideal je tako v nekem smislu razširjen Protokol: A Nice Place to Live znotraj katerega lahko odidemo naprej v postčloveštvo, pri čemer pa nekje v ozadju ždi varnostna mreža, ki prepreči, da bi se nam pripetila eksistenčna ali katera izmed drugih katastrof. Spekter možnosti, ki jih tako raziščemo, je mnogo večji kot to velja za Protokol - da Orgasmiuma niti ne omenjam - in to je tudi eden izmed argumentov za to, da gre za boljšo alternativo.

Medtem ko je pri tebi čisto naravno govoriti o najboljšem možnem stanju, ki ga je potrebno doseči kolikor mogoče hitro, so pri meni takšni izrazi že v precejšnji meri raztegovanje pojmov. Seveda gre v obeh primerih za neko zaporedje stanj, ki si sledijo skozi čas, ampak pleasure-loop se vsaj skozi mojo vizualizacijo mnogo lepše prilega 'statični' ciljni konfiguraciji, kot to velja za stalno izboljšujočo pot skozi čas...

V osnovi gre torej za normativni spor: tvoja 'moralna intuicija' je podala odg. na vprašanje "kakšna je najboljša možna usoda človeštva?", ki se razlikuje od mojega in ker naši možgani nimajo ostre ločnice med prepričanji in vrednotami, se okoli tega hitro razvije vihar argumentov.

Kako razrešiti takšno dilemo?

Klasično je to mogoče storiti na objektnem nivoju pač tako, da se premetava argumente o tem, zakaj naj bi bila neka možnost boljša od druge, ampak meni vsaj ta trenutek ni kaj dosti do tega. Kljub temu da svet, kakršnega bi bilo mogoče zgraditi na osnovi Fun Theory, daleč prekaša Orgasmium ali Protokol - kar bi moralo biti z nekaj (ali pa mnogo) refleksije očitno vsakemu - vseeno še zdaleč nisem prepričan, da predstavlja tisti pravi odgovor. Zato tudi skok na meta-nivo, kjer pa raje poskušamo izračunati najboljši scenarij, ki ga še dopušča naše najbrž končno vesolje - in to je pač tisto, kar poskuša doseči CEV.

gardener ::

@Jst:
Kako gre kaj pisanje kritike CEV? :)

@Thomas:
1 - se sme ali celo mora, pomašinati vse (dosegljivo) Vesolje za Protokol?
...
5 - višji smisel od tega, je samo iluzija in napačna uporaba naravnega jezika?

Po moje je odgovor na vse to pritrdilen in mislim da sem s tem "na svetli strani", ki bo prevladala.

Pick your side!

Raje izberem metodo, ki bo namesto mene bolje izbrala stran, ker odkrito rečeno ne zaupam tako zelo svoji presoji, da bi upal na njej zasnovati celotno prihodnost našega lokalnega vesolja - tvoji seveda še nekoliko manj, malce bolj pa recimo Bostromovi.
««
110 / 182
»»