» »

Protokol

Protokol

Temo vidijo: vsi
««
62 / 182
»»

_marko ::

->Če želimo naj se AI sama odloči, mora sploh imeti to sposobnost in če želimo da se odloči kolikor toliko v skladu z našimi vrednotami, potem mora imeti na voljo mehanizem podoben tistemu, ki obstaja v nas.

Jaz ne želim, da se AI odloči v skladu z našimi vrednotami, normami itd...
Želim, da se SAI sama odloči kaj je za nas najboljše po sistemu axiomov. Nočem mešat zraven vrednote, da npr droga ni vredu. V tem primeru bi nam ta vrednota škodila.
(če želiš primer povej)


->Ok. Samo dvomim, da ga je možno speljati na takšen način kot predlagaš.

Čist pravilno, da dvomiš. Bom vesel, če mi bo nekdo dokazal drugače oz. pravilneje.


->Problema sta najmanj dva: tehnološki in filozofski. Pri prvem gre za to, da niti današnji ljudje s specializiranim hardwareom za modeliranje drugih ljudi nismo sposobni optimalno ocenjevati, katera naša dejanja bodo vodila k povečanju užitka drugih, kaj šele AI brez tega...

Tukaj se spet ne morem strinjat. AI lahko naredi skening možgan in zavesti ter preveri kaj nam da največji pleasure.
Govorimo o SAI. Ti pa praviš, da bo človek v tem pogledu sposobnejši.
Če bi človek delal Protokol se ga jaz ne grem (nočem se ga it, v vsakem primeru sem zraven)


->Poleg tega, če bi rad odstranil spomine in ostalo šaro tako, da ostane samo zavest v kateri na nek način induciraš pozitivno qualio, rabiš superinteligenco

Da.


->Od mladega AIja do superinteligence je sicer časovno lahko kratek korak, v smislu sprememb pa precej dolg. Tako dolg, da na poti izbriše človeštvo. In za to vmesno obdobje potrebujemo primeren etični sistem.

Tukaj imava problem definicije AIja. Razlika je le v computingu!
Ne rabiš vmesnega obdobja, enostavno naj AI postane dovolj dobra in potem naredi Protokol. Zanemarljiv čas, IMO.
Če pa že hočemo na silo neko vmestno "VARNO" stvar se pa strinjam s teboj, ampak povdarjam, da je to vmesno obdobje BOLJ NEVARNO kot pa kasnejše. Večja verjetnost, da bomo mi kaj zajebali kot pa SAI.


->Imamo neko bitje, recimo bobra .... .... Ne gre za povečanje kompleksnosti, ampak "pretoka" qualie. Zavest ostane enaka kot prej. Ne doseže človeškega nivoja, kaj šele kaj zanimivejšega.

Ne doseže človeškega nivoja kompleksnosti, PRESEŽE pa človeški nivo p/p. Zanimivnost in dolgčas sta pojma s katerima tukaj ni vredu operirat. Enostavno ne obstajata.


->Vsaj tako si predstavljam M&O scenarij, ki sicer (glede na moje vrednote,jasno) nikakor ni slab, ampak kljub temu si želim nečesa drugega.

Načeloma si prav predstavljaš. Eni mislimo, da je ta primer najboljši možen. In dejansko ti bo problem dokazat, da ni.
Jaz pravim naj AI to zrihta po svoje, kar bo najverjetneje rezultiralo v M&O scenarij. Ni pa rečeno.
Ti pa bi rad omejil odločanje AIja, torej bi imela na voljo manjšo množico scenarijev zaradi naših norm in vrednot, ki pa posthumano niso ničesar vredne.
Ponavaljam, možno je tudi to, da bi ob "mojih" pogojih in "mojem" načino Protokola prišlo do scenarija, ki ga zagovarjaš ti. V vsakem primeru bi prišlo do najbolj ugodnega z vidika p/p.
Če pa pogledamo tvoj primer pa ni več rečeno, da bo prišlo do najboljšega p/p razmerja.

Upam, da me razumeš kar pravim.

...
Vse kar si pisal od tukaj naprej pride zame pogojno v poštev v tem t.i. vmesnem obdobju. Da bi pa za vedno ostali v takšnem obdobju kot ga pa ti opisuješ - da nam AI izpolni vse želje, ki si jih zmislimo, se mi pa zdi premalo.
Kaplja v morje od možnega p/p, IMO. Tudi v protislovju z prvim axiomom, ki ga bomo dali AIju - (p/p+1)=max.

Komentarji seveda dobrodošli!

Lp Marko
The saddest aspect of life right now is that science
gathers knowledge faster than society gathers wisdom.

njok ::

Veckrat se vprasam, ali se splaca trgovat z painom v zameno za pleasure. V velikem razmerju najbrz ze?

Ali naj se raje zavarujemo, in recemo pain=0, potem pa max(pleasure)? Slisi se bolj varno...

OwcA ::

Ne doseže človeškega nivoja kompleksnosti, PRESEŽE pa človeški nivo p/p. Zanimivnost in dolgčas sta pojma s katerima tukaj ni vredu operirat. Enostavno ne obstajata.

Sam ta miselni eksperiment razumem bolj v smislu vprašanja, ali je zaloga vrednosti p/p povsem neodvisna od zavesti za katero induciramo kvalijo.
Hkrati bi dodal še, da je to odličen pomislek.
Otroška radovednost - gonilo napredka.

nevone ::

>Govorimo o SAI. Ti pa praviš, da bo človek v tem pogledu sposobnejši.

Kdo bo naredil SAI?

o+ nevone
Either we will eat the Space or Space will eat us.

nevone ::

Torej.

_marko recimo pravi, da rabimo optimalni pleasure loop. To se je tudi meni zdelo nekaj časa edino smotrno in edina logična posledica optimizacije procesa v katerem hočemo čim več užitka za čim manj porabljenih virov.

nicnevem pa pravi, da ljudje imajo tako radi kompleksnost, da se je ne bodo hoteli odreči, in bi želeli nekaj več, kot samo junk užitek.

Potem pravite, da nicnevem-ova varianta lahko pride v poštev za prehodno obdobje, ampak cilj je pa _marko-va opcija.

Jest mislim, da bomo najprej naredili enostaven pleasure loop, ki ga bomo lahko navijali, potem pa bomo videli, kaj se še s tem splača delat.

Možno je, da so aksiomi, potrebni za ugodje zanko, trivialni, verjetno pa ni trivialno vzdrževati tak loop v stalnem zagonu.

o+ nevone
Either we will eat the Space or Space will eat us.

tsh2 ::

>nicnevem pa pravi, da ljudje imajo tako radi kompleksnost, da se je ne bodo hoteli odreči, in bi želeli nekaj več, kot samo junk užitek.

od dveh užitkov je večji užitek tisti, ki ga imaš raje. tudi če je bolj blag in ne tako močan kot drugi užitek.

torej bi moral biti cilj ne čimbolj močan užitek ampak tak užitek, da bo čimbolj ugajal ljudem.

primer: užitek, ko opraviš neko težko nalogo je bolj blag, a ljudem bolj ugaja kot bolj ceneni užitki.

rh^ ::

Veckrat se vprasam, ali se splaca trgovat z painom v zameno za pleasure. V velikem razmerju najbrz ze?

Ali naj se raje zavarujemo, in recemo pain=0, potem pa max(pleasure)? Slisi se bolj varno...


Mene tudi to muči. Če daš da je na koncu pleasure>pain in da je pleasure>plasure (pain=0) je verjetno izbira z pain na ravni posameznika taprava.

tsh2 ::

Ko je nek poskus potrdil einsteinovo teorijo, na kateri je delal leta v negotovosti, je rekel, da je bil potem nekaj dni v "transu" (ne morem se spomniti kaj je bila točno beseda, in ne morem najti citata na internetu). takoj, ko sem to prebral, sem vedel, da je to moral biti prvorazredni užitek.>:D

ali pa vzemimo tale primer:
nekdo ti da na izbiro, da muči tebe ali tvojega otroka. večina ljudi bi najbrž izbrala, da naj mučijo njih. to je zato, ker je lahko misel na nekaj še hujša kot neposredna čista bolečina.

rh^ ::

Sej to ni nič takega. Ni važno a je fizični pain ali pa prek misli, boli enako.

nicnevem ::

@marko
Sledi ubijalsko dolg post, ki ga priporočam samo ljudem, ki res nimajo česa boljšega za početi.. ;)

> Jaz ne želim, da se AI odloči v skladu z našimi vrednotami, normami itd...
> Želim, da se SAI sama odloči kaj je za nas najboljše po sistemu axiomov.

Aksiomi, ki jih bomo vgradili v AI bodo odsevali naše vrednote. Drugače... sploh ne gre. Sicer pa mislim, da je tukaj bolj problem v terminologiji kot v čem drugem. Tvoji aksiomi so moji osnovni principi oz. vrednote (npr. p/p princip ali pa "svobodna izbira"..) okoli katerih je zgrajena zgradba etičnega sistema, ki je mehanizem odločanja.

>> Problema sta najmanj dva: tehnološki in filozofski. Pri prvem gre za to, da
>> niti današnji ljudje s specializiranim hardwareom za modeliranje drugih ljudi
>> nismo sposobni optimalno ocenjevati, katera naša dejanja bodo vodila k
>> povečanju užitka drugih, kaj šele AI brez tega...
> Tukaj se spet ne morem strinjat. AI lahko naredi skening možgan in zavesti ter
> preveri kaj nam da največji pleasure.
> Govorimo o SAI. Ti pa praviš, da bo človek v tem pogledu sposobnejši.

Po definiciji človek ne more biti v ničemer sposobnejši od superinteligence, vendar ne govorim o SAI. Za inteligenco nekje okoli našega nivoja (iz katere bo zrastla SAI) pa je kaj takega kar predlagaš praktično nemogoče. Zato si tudi želim, da prenesemo ta mehanizem s katerim ljudje sprejemamo odločitve v seed AIja - čeprav se lahko zgodi, da bo komu "prepovedala uporabo drog". Mnogo bolje, kot pa da zaradi popolnoma napačnega razumevanja qualie užitka transformira ljudi v "steklenice piva".

> Razlika [med AI in SAI] je le v computingu!

Hm.. zdaj odvisno kako zelo splošno si to mislil. :)

Obstaja ogromna razlika v inteligenci med Blue Genom, ki poganja AIXItl algoritem in BGjem, ki poganja Novamente. Prvi je v primerjavi z drugim "butast ko hlod" zaradi popolnoma neučinkovite arhitekture. Zviti algoritmi so tisto bistveno, kar prinese razlike v inteligenci; poleg same računske moči substrata na katerem tečejo.

Zamahniti z roko in reči "enostavno naj AI postane dovolj dobra in potem naredi Protokol" je pot, ki bi nas vodila v grob.

Zakaj?

Razvoj AIja v SAI poteka nekako tako, kot razvoj otroka v odraslega (ki pa se praktično ne konča). V vsakem trenutku ima (S)AI neko množico ciljev. Nekateri med njimi se nanašajo na željena stanja zunanjega sveta, drugi na notranjega. Tako kot se mora otrok igrati, mora tudi AI posegati v svojo zunanjost (in notranjost), da njena inteligenca raste. Ta dejanja so pogojena z njenimi cilji, ki morajo biti zasnovani tako, da spodbujajo proces učenja, hkrati pa naj bi bili takšni, da bi se strogo držali abstraktnega p/p principa, ki pa ga AI ne razume. Tukaj imamo potem razne možnosti: od tega, da AI preneha delovati in tako sploh nikoli ne doseže kake višje inteligence in večjega vpliva na okolje, ali pa pač nadaljuje s svojim procesom učenja in ignorira p/p princip. Njena inteligenca raste, ravno tako kompleksnost etičnega sistema, ki pa je... precej naključen in s tem seveda nevaren. Cilji, ki se nanašajo na zunanjost namreč niso bili "pod poveljem" p/p principa, ampak so se "osamosvojili". Če sistema ne uspemo izključiti na stopnji pred rekurzivnim samo-izboljševanjem je igre praktično konec.

> [Zavest] Ne doseže človeškega nivoja kompleksnosti, PRESEŽE pa človeški nivo p/p.

Kar je tebi edino pomembno. Meni pač ne.

> Zanimivnost in dolgčas sta pojma s katerima tukaj ni vredu operirat. Enostavno ne obstajata.

Kaj pa kompleksnost? (bom kasneje tole pojasnil...naj ostane kot retorično vprašanje)

> Eni mislimo, da je ta [M&O] primer najboljši možen. In dejansko ti bo problem dokazat, da ni.

Mislim, da je to nemogoče. Temu je služilo tudi tisto nakladanje o etiki na začetku. Če bi želel _dokazati_ katera strategija je boljša bi (a) ali morala obstajati neka objektivna etika (b) ali pa bi se morala strinjati o nekem metaetičnem sistemu, iz katerega bi nato izpeljal kateri etični sistem je boljši. Ker pa ne velja niti prvo niti drugo, lahko trdim le, da je _glede na moj etični sistem_ tvoja in Odinova strategija nekoliko slabša od moje. QED. No ja..niti ne. :)

> Jaz pravim naj AI to zrihta po svoje, kar bo najverjetneje rezultiralo v M&O scenarij. Ni pa rečeno.

Jaz pa pravim, da obstaja precejšnja verjetnost, da nas bo tak način pokopal. Poleg tega mi pa še ni tako zelo všeč, kot moj.

> Ponavaljam, možno je tudi to, da bi ob "mojih" pogojih in "mojem" načino Protokola prišlo do
> scenarija, ki ga zagovarjaš ti. V vsakem primeru bi prišlo do najbolj ugodnega z vidika p/p.

Težko verjamem. Tvoj scenarij temelji na definiciji neke točno določene qualie in funkcije, ki sprejme kot argument neko qualio in s pomočjo te definicije presodi če je tista prava, ter določi kako "močna" je. SAI nato išče maksimum te funkcije.

Kako bi to lahko pripeljajo do tega, da bi se jaz sčasoma prelevil v neko inteligenco, ki ima z današnjo komaj kako stično točko in s tem tudi qualio?! Moja qualia v prihodnosti bi bila kvalitativno drugačna od današnje. SAI bi bila zaposlena s čiščenjem mojega trenutnega uma in sploh ne bi pomislila na to, da bi me transformirala v nekaj drugega.

> Če pa pogledamo tvoj primer pa ni več rečeno, da bo prišlo do najboljšega p/p razmerja.

Seveda ne. Ker meni sploh ni tako zelo pomembno to razmerje.

> Vse kar si pisal od tukaj naprej pride zame pogojno v poštev v tem t.i. vmesnem obdobju.

Ok, bom upošteval to, da nekako rešimo tehnične probleme in sledimo temu radikalno hedonističnemu scenariju. Nova podoba M&O scenarija naj torej bo (če se strinjata), da prebrodimo vmesno obdobje z neko zasilno etiko (ki vgradimo v AI z učenjem podobno kot pri otroku), nato pa jo nadomesti abstrakten p/p aksiom, ki obvladuje dejanja SAIja ad infinitum... Tehnične probleme torej pustimo ob strani.

Zgodovina sprememb…

  • spremenilo: nicnevem ()

nicnevem ::

Nekaj mi pravi, da OwcA razmišlja nekoliko podobno kot jaz. :)

Omenjeni bober... doživlja IMHO qualio in to večih okusov, med katerimi so mu nekateri všeč (užitek, sreča), drugi pač ne (bolečina, žalost). Ta qualia sicer ni takšna, kot pri človeku, vendar tudi ta ni takšna, kakršno bi lahko doživljala superinteligenca, kakršna bi morda lahko postali. Vendar ne po M&O scenariju. Tam ostanemo na enakem nivoju kot sedaj, ker p/p princip ne more zajeti qualij, ki so zelo, zelo drugačne in bi jim s človeškega zornega kota težko rekli pleasure...

...lahko noč in veliko zanimive qualie! ;)

_marko ::

nicnevem:

Prepozna ura, da bi na široko odgovarjal.
Dobro si napisal, ampak se spet ne strinjam v celoti. Menim, da je tvoj način prenevaren.

Bom pojasnil jutri :)


->Nova podoba M&O scenarija naj torej bo (če se strinjata), da prebrodimo vmesno obdobje z neko zasilno etiko (ki vgradimo v AI z učenjem podobno kot pri otroku), nato pa jo nadomesti abstrakten p/p aksiom, ki obvladuje dejanja SAIja ad infinitum.

Jaz nimam iluzij, da bi kdo upal narediti Protokol po sistemu, ki ga zagovarjam.
Hecno, ampak se mi zdi da ubiramo bolj nevarno pot.
The saddest aspect of life right now is that science
gathers knowledge faster than society gathers wisdom.

_marko ::

samo to še:

->Vendar ne po M&O scenariju. Tam ostanemo na enakem nivoju kot sedaj, ker p/p princip ne more zajeti qualij, ki so zelo, zelo drugačne in bi jim s človeškega zornega kota težko rekli pleasure...

BISTVENA NAPAKA! Po tem principu AI spremeni arhitekturo do te mere, da smo to še vedno mi in preizkusi-preračuna najboljši možen scenarij.
AI preračuna vse potencialne qualie in izbere najboljšo.

Te pa ne razumem točno, a ti praviš, da p/p princip ni najboljši možen axiom? Ker če nam AI, da najboljši pleasure po tem axiomu smo naredili napako?
The saddest aspect of life right now is that science
gathers knowledge faster than society gathers wisdom.

Valentin ::

Ne pristajam na nobeno pranje možganov s strani AI ali kogarkoli drugega.
Moj začetni upload bi moral biti 1:1. Potem bi se pa odločil sam, ali res nočem obdržati naprimer sposobnost doživljanja dolgočasja, bolečine. Sam bi se tudi odločil, katere spomine bi si zbrisal, če sploh katere...

Pa še tole...
Če bom v protokolu srečen že kar po defaultu, kakšne cilje bom potem sploh še imel? Občutek sreče, ki si ga sam ustvariš s svojim delovanjem, ko izpolniš nek svoj zadani cilj, je zame veliko več vreden...

Thomas ::

Valentin, ti si povedal, kakšno qualijo bi konzumiral.

Vendar take, je v našem končnem svetu samo zelo omejena količina.

Realnih Nobelovih nagrad za fiziko ni več niti 100, IMHO.

Potem je tega konec, razen če si nasimuliraš kaj zelo podobnega. To je pa v principu možno.

> Občutek sreče, ki si ga sam ustvariš s svojim delovanjem, ko izpolniš nek svoj zadani cilj, je zame veliko več vreden...

Že. Samo si že po relativno malem številu realnih dosežkov tako mogočen, da je Vesolje premajhno za to vrsto obnašanja, še naprej.
Man muss immer generalisieren - Carl Jacobi

OwcA ::

Te pa ne razumem točno, a ti praviš, da p/p princip ni najboljši možen axiom? Ker če nam AI, da najboljši pleasure po tem axiomu smo naredili napako?

Tudi če je skorajda edini potreben aksiom, ostaja vprašanje kako maksimizirati intenziteto in trajanje pri sredstvih, ki so nam na voljo in posledično kakšno je optimalno razmerje med obema. MOS je verjetno nek lokalni maksimum, kar pa še ne pomeni, da je tudi globalni maksimum. Prepričljivost argumentov v pird MOS je hkrati tudi največji problem, saj vprašanje, če se bi evoluiranje naše pojavnosti v Protokolu še kdaj izkobacalo iz te jame.

Bojim se, da jemljemo zavest preveč kot samostojen element in ne upoštevamo, da je v doberšni meri (če ne celo povsem) posledica ostalega računanja v naših možganih. MOS razumem kot drastično okrnjenje tega ostalega, kar zna postaviti zgornjo mejo ugodja relativno nizko. Vem, porečete, SAI bo že znal poračunati kako in kaj, ampak kaj nismo potem soočeni s kura ali jajce problemom. Namreč brez SAI ne moremo določiti omejitev, ki so nujne, da je obstoj SAI za nas varen.

Po drugi strani je res, da izroditev v MOS, četudi ne optimalna, ni slaba, ampak ciljati nanjo se mi v tem trenutku zdi smiselno le, če je tako najmanjša verjetnost, da gre kaj narobe.
Otroška radovednost - gonilo napredka.

Thomas ::

Če bi lahko naredili SAI, ne da ima (nastajajoča) SAI pri tem kaj besede, bi bile stvari bolj enostavne.

Tako smo pa prisiljeni neke omejitve postaviti že vnaprej, da se nam SAI ne sfiži v smer t.i. "paper clips Universe", kjer se maksimizira (ali setira) nekaj, kar nas sploh ne zanima. Mi pa v procesu umremo.

Če zagotovimo, da naslednjih 1000 sprememb bo bolj varnih od preteklih 1000 - in tako do konca sprememb naprej, potem imamo lahko eno neničelno verjetnost, da pridemo živi skoz.

Valentinovega "nedotaknjenega uploada" pa jaz ne bi hotel imet. Niti Thomasovega "nedotaknjenega uploada" ne. Niti od kogarkoli, kadarkoli živečega. Mati Terezija, Jezus Kristus in Sokrat vključeni!

OTOH, je pa neuploadan Thomas (snow, ....) "s svojim uvidom" potencialno že skoraj tako nevaren, kot kakšen šimpanzji upload. (Magari bil krotek čimp, magari bi ne bil krotek.)

Tudi Jurgen S., ni uploadan, niti Ben G., pa sta tudi že nekje na "upload nivoju potencialne nevarnosti".

Neuploadani "navadni" ljudje na SL2- nivojih pa seveda tudi niso nenevarni. Nikakor ne, verjetno vsi skupaj celo bolj.

Tako, da morje v katerem plavamo, ni iz vode, je iz samih hudih tveganj. So to speak.
Man muss immer generalisieren - Carl Jacobi

_marko ::

->MOS je verjetno nek lokalni maksimum, kar pa še ne pomeni, da je tudi globalni maksimum.

Zakaj z MOSom ne moreš do globalnega maximuma z drugimi sistemi pa lahko?
The saddest aspect of life right now is that science
gathers knowledge faster than society gathers wisdom.

OwcA ::

Tega nisem trdil. Lahko, da je celo kar sam globalni maksimum, ampak karkoli že je, ni očitno.
Otroška radovednost - gonilo napredka.

tsh2 ::

>Sej to ni nič takega. Ni važno a je fizični pain ali pa prek misli, boli enako.

Se ne strinjam, da je enako. Pravzaprav je zelo različno. Ravno to sem hotel povedati, da ne obstaja samo en užitek in ena bolečina, ampak jih je zelo veliko vrst. In zdaj skušam najti formulo, s katero se da ugotoviti, kateri užitek je najboljši....

Mislim, da igra tu volja pomembno vlogo. Ponavadi volja in užitek sovpadata. Tisto, kar si želimo, nam tudi daje dobro počutje samo po sebi. So pa primeri, ko si volja in užitek nasprotujeta. Primeri so nezdrava hrana, cigareti, mamila... Te stvari nam dajejo užitek, a so v nasprotju z našo voljo (če smo pametni). Ali pa težko delo: lahko imamo veliko voljo, da ga opravimo, a nam lahko počutje (naprimer lenoba) to ovira. Ko je to delo opravljeno, smo lahko utrujeni, ker je bilo delo težko, a užitek bo vseeno tu, zaradi uresničene volje.

Mogoče je užitek največji takrat, ko: 1) Se nam uresniči tisto, kar smo si želeli. Čim večja je volja, tem večji je potem užitek. 2) Nam ta uresničitev želje obenem prinese še čisti (telesni?) užitek.

Druga teorija pa je, da je užitek največji takrat, ko se nam uresniči nekaj, kar nam obeta lepo prihodnost, torej prihodnost več ali manj polno z užitki. To je pa isto kot uresničitev volje, ker si vsi želimo lepo prihodnost.

PS. nimam pojma, o čem se pogovarjate tukaj... globalni maksimum, MOS ... a je ta žargon res potreben?

OwcA ::

Ni ravno SL4, ampak ko že ravno govorimo o kvaliji: Synesthesia makes sense of art and art from sense.
Otroška radovednost - gonilo napredka.

rh^ ::

tsh2: če te prav razumem govoriš o tem, da določene stvari vplivajo na užitek oz. ob določenih pogojih je užitek večji. Potem pa govoriš še o različnih vrstah užitkov? To dvoje namreč ne gre skupaj IMO. Obstaja samo en pure užitek in to je tisti, ki ga na koncu občutimo. Pa naj bo vmes volja, zavest in nevem kaj še vse na koncu je užitek en in ne več vrst. To kar potem opisuješ se mi zdi nesmiselno kompliciranje. Lahko pa da sem te narobe razumel.

tsh2 ::

Na prvi pogled se že zdi, da je na koncu užitek samo eden. A se mi zdi, da ni tako preprosto.

Tisto, kar je skupno vsem užitkom, je zadovoljstvo. To zadovoljstvo je obarvano z različnimi čustvimi in mislimi, da se dobi različne užitke.

Torej ti praviš, da je užitek samo eden? Zakaj tako verjameš? Kaj pa moč užitka, ima mejo?

OwcA ::

Otroška radovednost - gonilo napredka.

_marko ::

Sem poiskal tale gen in je njegov ortolog prisoten pri ogromno živalih. Naj nardijo poskuse na miškah pa bomo videli če je to to.
The saddest aspect of life right now is that science
gathers knowledge faster than society gathers wisdom.

K-ci ::

Ok, tale tema je pa rahlo zaspala...
Pišem zato, da si malo dušo olajšam. (pa dajte post v ložo, če ni primeren)
Ne vem...zadnje čase, ko se tako potikam po globalnih transhumanističnih(TH) forumih me vedno bolj prežema razočaranje in zmedenost. Sama ideja TH, ki bi morala biti vsaj v osnovah nedvoumno razjasnjenaje med privrženci, se mi zdi med samimi TH sprejeta zelo različno. Npr. na Kurzweil-jevih forumih (med drugim) prednjači zadnje čase nek sumljiv pesimizen(časovni roki,..), ki ga posamezniki (Monkey, Extropia, Eldras) razlagajo kot racionalizem in predvsem odgovor na Kurzweil-jeve že utopične ideje. WTF??! Dvomijo v zgodnjo izvedljivost podaljšanja življenjskega razpona, stvarjenja AI na podlagi brainscanninga itd itd.
Zato se sprašujem...Ali je nekaj hudo narobe z menoj in mojo predstavo o vsej zadevi, ali pa so nekateri drugi ljudje povsem zgrešili bistvo transhumanizma in teh. singularnosti.
Da se o razhajanjih ob morenitnem bolj podrobnem vpogledu v vso stvar sploh ne pogovarjamo!
Meni osebno se zdi sprijaznjenost z dejstvom, da bom (bi naj) nekoč umrl nesprejemljiva, morbidna in precej bolana. Še bolj bolane in meni nerazumljive pa so salve posmehov, ki sem jih deležen, takoj, ko poskušam ljudem približati in jih seznaniti s to čudovito idejo transhumanizma.
Ljudje podedujemo lastnosti od naših dragih prednikov, a najhuje je, da se iz roda v rod prenaša ta ena in ista miselnost. Tudi med same znanstvenike in to najvišjega kova, vseh vej. Ta kolektivna percepcija realnosti - svet takšen je in takšen bo ostal. Linearen. Na veke vekov. Amen
Sam bom še naprej upal, da bodo v ljudeh začela kliti semena, ki bodo obrodila odprte ume. Pa naj ta misel predstavlja mojo novoletno željo. Želim Vam vsem prijeten vstop v prihajajoče leto. Vsem transhumanistom pa ob enem še obilo uspeha pri razsvetljevanju mainstreamarskih zdravorazumarjev. In še bolj trdno upanje v boljšo prihodnost, v dobro človeka.
Ker jaz bom upal. Na veke vekov. Amen.

Thomas ::

It is a do or die world.

A bomo kaj naredili? Seveda bomo, le da ni rečeno, da ne bomo umrli tudi zaradi naših akcij. Ne samo zaradi pasivnega čakanja na Matildo, ki nas pobira po svoji stari metodi, lahko umremo tudi mnogo bolj velikopotezno.

Ne glede na to, kaj večina svetovnega javnega misli, ne glede na to, kaj večina TH misli, smo blizu točke, kjer bomo "zahekali Vesolje".

Ga vzeli v editor takorekoč - in editirali, editirali .... in pognali na novo, pravzaprav.

Da se to ne more zgoditi, že stare mame niso več tako prepričane. Da se "to gotovo ne bo zgodilo pred 2100", pa še menijo.

Ena sama t.i. Goedlova mašina, ki se ne zakvačka kmalu po zagonu, je vse kar potrebujemo. Lahko si prepričan, da v 10 letih jo bomo imeli.

Srečno 201X!
Man muss immer generalisieren - Carl Jacobi

Samsung06 ::

Torej Thomas pravis, da do leta 2017max naj bi se nekaj drastičnega zgodilo? Zakaj si tako prepričan v to oz. kaj te je prepričalo, da si določil to letnico?

Kaj lahko pričakujemo v obdobju od leta(pomembni dosežki):
2007-2010:?
2010-2015:?
2015-2020:?

:\

Thomas ::

> Kaj lahko pričakujemo v obdobju od leta(pomembni dosežki):

> 2007-2010:?
> 2010-2015:?
> 2015-2020:?

Ne vem. Najbrž marsikaj. Vsekakor pa hitrejše računalnike, dovolj hitre, da enkrat med 2010 in 2020 bo Goedlova mašina (selfimproving program) stekla na eni od njih. Stekla, z netrivialnim izidom, seveda.

Pomeni, najmanj kar bo, bo naredila "odgovarjalni stroj", s katerim se bo mogoče iti eno takole igrico:

"Mašina, katera je minimalna potrebna sprememba na človeškem genomu, ki anulira staranje?"

Že če imaš tak stroj, ki magari postavi taužent podvprašanj, si zmagal.

Pa je to še dokaj neroden način, preko odgovarjalnega stroja.

Vseeno je, kakšen razvoj nas čaka v bodoče. Ker ko pridemo do GM, bomo komot vse začeli znova. Od nule. Pa bomo vseeno hitro zasenčili vse do takrat izumljeno s strani človeštva.

A mar kdo misli, da GM se ne da zgradit?
Man muss immer generalisieren - Carl Jacobi

Samsung06 ::

Sam men se zdi, da ko bo to delovalo(ta masina), jo bodo skušali zaustavit, preprečit. Tko kot kloniraje. Recimo, da bo v USa en religiozn predsednik(k ma rad tradicijo) in bo reku, tega pa se ne gremo. Tko, da se lahko vse zavleče. In pol se lahko zgodi, da nardijo mašino v neki X-državi v kaki Somaliji in gremo vsi v hell.

Thomas ::

Države so na trgu, tudi ZDA. Popravnega izpita ne bo.

Samo ni nujno, da bo to projekt države. Lahko, da ga bo speljala firma, ki morda niti še ni ustanovljena.
Man muss immer generalisieren - Carl Jacobi

nicnevem ::

Pri Singularity Institutu so naredili večji update pred kratkim. Poleg tega, da se jim je pridružilo nekaj ljudi in da zbirajo denar v obliki "matching challengea", so razprostrli svoj raziskovalno-razvojni program, ki predvideva dve fazi.

V prvi (2007-2011) naj bi razvili matematični in konceptualni framework s katerim bi analizirali varno, prijateljsko splošno inteligenco, ter hkrati programska orodja, ki bi koristila inženirjem pri konstrukciji takšnih inteligenc.

V drugi fazi bi (če bi se izkazalo za izvedljivo) razvili in implementirali takšno varno, prijazno inteligenco z uporabo orodij razvitih v prvi fazi.

Poleg tega raziskovalnega programa naj bi skupaj z Oxfordskim Future of Humanity Institutom organizirali Research Grant Program.

Na njihovi strani pa je objavljenih tudi nekaj intervjujev izmed katerih je trenutno najzanimivejši z Dr. Barney Pellom, "starim mačkom" na področju umetne inteligence, ki je ustanovil firmo Powerset, ki naj bi kot ena izmed prvih ponudila svetu pravo semantično iskanje po internetu... sedaj pa je svetovalec Singularity Instituta.

Thomas ::

Link.

Esenca mojega pogleda na razvoj inteligence. Sicer sem to razlagal podrobno v tej temi, kdor me je prav razumel.
Man muss immer generalisieren - Carl Jacobi

gzibret ::

Ja, proučevanje dinamičnih sistemov je definitivno v vzponu. Rabiš computing power, brez tega ne gre. Začneš z enostavnimi enačbami in vidiš, v kaj vse se lahko potem zadeva razvije.

IMO bodo na ta račun padale marsikatere teorije in se bodo naredile nove. Predvsem tam, kjer je izdelava experimentov iz tega ali onega razloga otežkočena. Predvsem mislim na kozmološke teorije in pa tudi na geološke teorije. Pri obeh je problem časovnega trajanja in razsežnosti experimentov.
Vse je za neki dobr!

jype ::

Mene najbolj veseli, da znanost lahko izpodbija Benediktovo drzno trditev, da evolucije ni možno preizkusiti v laboratoriju, pravzaprav že danes.

Samsung06 ::

here we go :)

BBC

sm0key ::

malo me skrbi ob vašem "naslajanju" nad višjo integriteto sprejemanja odločitev, saj mi to pove dve stvari:

1. očiten je nek komplex, ali predizpozicija, da moramo ustvariti nekoga ali nekaj (vendar tale nekaj tako hitro postane Nekdo), ki si bo s "skeniranjem" možganov ustvaril sliko intimnih hotenj posameznika. Bo potem vse te skeninge povzel, iz njih vzpostavil statistiko in deloval mimo določenih "odpadnih" skupin (beri skupin, ki bodisi po nazorih ali delovanju odstopajo od večine), ali deloval po godu vsakega posameznika? Mu bo okoli njega ustvaril matrico njegovega (subjektnega) idealnega sveta? Le kakšna je potem sploh še možna integracija posameznika nazaj v skupino? Skrbi me tudi to, da ljudje, ki že tako nimamo ideje kaj je tisto popolno in objektivno, ki bi nas rešilo "tegob" odločanja ali vladanja (ali karkoli je potemtakem cilj), ustvarjajo entiteto,ki bo tega zmožna... kdo bo to potrdil? Že Voltaire je rekel "Če ni boga, bi bilo presneto dobro ga izumiti". Bomo potem slepo sledili Njegovim ukazom? Se mu bomo podredili? Kakšne mehanizme zatiranja nestrinjajočih z Njegovim vladanjem bi potem vzpostavil? Bi bili nasilni? Bi dali človeku drugo možnost? Potem smo spet odšli iz koncepta "vodenja"...potem bo anarhija, ali pa se bodo vzpostavili sistemi, ki bodo delovali mimo Njega. Bistveno vprašanje je, kako bi AI poskrbel za ljudi, ki se z Njim ne bi strinjali? Dejstvo je, da NIKOLI ne bomo zmožni vzpostavit sistema, ki bo zadovoljil vsakega..Kako bo AI razumel naravo? Je še marsikaj višjega v tem, ko zgolj kvantno kolebanje... je narava, ki nam ne postavlja ultimatov...kot rečeno, AI ni drugega kot vrhunec človekovega uma, um, ki nima svojega sodelovanja z čustveno inteligenco, saj bo bistvo obstoja prenesel v bite in bajte. Seveda, zdaj boste rekli, "saj je narava čisto nekaj podobnega - sestavljena iz milijard clustrov distribuiranega kompjutinga, ki nam hrani 5 čutov"...ampak poglejte, bistvo narave ni v "kako deluje in kako rešuje", vendar enostavno JE. Entropija, ki se poganja, za katero je kljub svoji nezaslišani moči, porabila milijarde in milijarde let, da se je vzpostavila. Kako le mislite, da ji bomo parirali z našim AI? Sam sem še vedno mnenja, da je smisel sestavljanja AI tako brezpredmeten, kot hladilnik sredi Antarktike in bi bil zgolj dokaz samemu sebi, torej nam. Strašansko mi je bila všeč ideja v The Hitchhikers Guide to the galaxy, kjer velikanski superum, kot bistvo obstoja sveta navede odgovor "0". Kljub trivialnosti poti sporočila, ima svojo težo. Naprimer že kaos kot orodje vzpostavljanja reda, kot nasprotje...ali oscilacija...ali nič, izenačenje obeh strani enačaja...Kajti IMHO je glavna dilema kakšen smisel obstoja bo AI sploh še imel, ko bo popolnoma integriran v svet...kajti, da nas bo vodil v popolnosti (kot to vsi želite), bo moral poznati in "razumeti" VSE aspekte življenja...tudi tiste malo bolj "mistične"....zatorej se mi zdi na mestu vprašanje, ali ne bo AI na koncu zares postal spomenik nihilizmu? Ko bo smisel postal enak nesmislu, in se mu bo vsaka naslednja odločitev zdela nevredna vloženega napora? Jaz osebno nisem nihilist, še zdaleč ne, postavljam le široka vprašanja, na katera v tem topiku začuda nisem našel odgovora ali vsaj predloga. Vendar pa bi se vrnil na začetek - dejstvo je, da se človek počuti ob naravi ponižnega (vse premalo sicer, ampak vsaj v ožjem znanstvenem okolju ziher) in ravno zaradi te vseobširne ponižnosti, se boji zaživeti v svojem krasnem novem svetu, in breme odloži raje nekomu drugemu. In to je moj point. Človek se boji prevzeti odgovornost nad svojim življenjem v najširšem pomenu kar jih obstaja, zato je treba vseeno pretresti temelje civillizacije in spregovoriti o tistih vrednotah, ki definirajo človeka, in ki jih bomo VSI pripravljeni sprejeti. To pa se nam zdi tako oddaljeno zato, ker smo tisočletja gradili civilizacijo na temeljih nadzora, in človek človeku volk, že od same mis-interpretacije Darwina o "boju za obstanek", ki tako lepo opračuje krvosesne korporacije in človekovo doseganja materialnega cilja preko trupel. Which leads me to another point:

2.Nnihče ne bo odobril AI, vsaj ne v svoji popolni svobodi, ker bo vedno interes višje družbe da v svoj prid kontrolira nižjo. S tem mislim predvsem piramidalno strrukturo odločanja, pri kateri nihče iz spodnje "kaste" ne ve za cilj, ki si ga je postavila zgornja, in zato predvsem izkorišča spodnjo. Mislite, da bodo ljudje na vplivnih položajih kar tako prepustili, slepo, da ne rečem naivno, absolutno oblast nečemu, ki bo njihovo matrico življenja klasificiral kot napačno in jih potemtakem ovrgel? So zlobni ko satan, vendar prepametni. Verjemite, četudi bo prišlo do takega nivoja zavedanja AI, bodo vanj še vedno vgrajene "varovalke"...saj je znano: človek človeku volk, vendar zaradi napak, ki jih dela vsak posameznik, očita pa jih nekomu drugemu in s tem celotni človeški rasi.

Vem da me boste, urejevalci matrice DA, NE (1,0) često in po spisku zavrnili, vendar sam verjamem, da ljudje bolno stremimo k izboljšanju, in želimo venomer postavljati novo, ne zavedoč se, da so temelji že pošteno načeti, da je koliba trenutne ideje obstoja tako zamajana in pokrpana, da se bo prej ali slej sesula sama vase. Utopično je.

več o tem naslednjič :P

nevone ::

Tvoji pomisleki so popolnoma razumljivi in, ne boš verjel, imajo/mo jih tudi ljudje, ki s(m)o zagovorniki transhumanizma.

V čem se torej razlikujemo?

Je nekaj osnovnih predpostavk, ki zelo odločilno vplivajo na to, kako stvari razumemo.

Ena predpostavka je to, da AI ni drugega kot del narave. To ni nekaj nad njo. AI je samo nujna posledica delovanja inteligence. Tudi človeška inteligenca ni drugega, kot del narave. Razvila jo je biološka evolucija.

Drugo je to, da nismo zadovoljni s tem, kar nam ponuja biološka evolucija. Tudi sam si rekel, da ti vzorec golega boja za preživetje ni všeč. No, to je vzorec biološke evolucije, ki ga želimo prekiniti.

Seveda v želji in prizadevanjih, da bi ta svet naredili prijaznejši človeku, naletimo na pomisleke. Vendar, kakšna je sploh naša alternativa? Da počakamo, da se biološka evolucija odvije do svojega bridkega konca, in za sabo ne pusti ničesar?

o+ nevone
Either we will eat the Space or Space will eat us.

A. Smith ::

Sm0key, v kolikor bi vstopili v svet protokola, bi vanj prišli že primerno "izboljšani", kar pomeni, da bi se prepustili presoji AI. Svobodno voljo bi ohranili zgolj v smislu izbire užitkov.

Mislim, da ni treba posebej razlagati, da to pomeni izgubo "človeške" komponente nas samih. Odločamo se torej med "popolnostjo" ter "človečnostjo".

>>>Vendar, kakšna je sploh naša alternativa? Da počakamo, da se biološka evolucija odvije do svojega bridkega konca, in za sabo ne pusti ničesar?

Taka usoda je zelo verjetna, če ostanemo za zmerom na modrem geoidu, in precej manj verjetna, če se, kot podgane, razpršimo po celem vesolju.
"Be professional, be polite,
but have a plan to kill everyone you meet".
- General James Mattis

Thomas ::

> da ljudje bolno stremimo k izboljšanju

Ti bi ta "bolni" aspekt človeške duše izboljšal, omilil?

Nekatere reči bi tako spremenil, da bi bile radikalne spremembe malo verjetne?

Da lepo pokorno počakamo, dokler nam biološka evolucija ne sporoči, da je našega časa konec, da bodo odslej kot volkovi velike podgane lovile orjaške zajce in veverice po nanovo zraslih evropskih, azijskih in ameriških gozdovih. Hijene pa bodo prevzele dominacijo v Južni Ameriki, Afriki in Avstraliji, za določen čas. Dokler se Zemlja ne skuha zaradi rdečega orjaka, Sonca?

Sicer ti ni všeč algoritem boja za obstanek, vendar ga boš ene 500 milijonov let še toleriral, potem bo pa hvalabogu prevroče za tak boj?

Nemara misliš, da bi morali kolonizirati Galaksijo in na vseh planetih gojiti koze in ovce in nekaj zelenjave?

Se mi umaknemo, da bo lahko prišel kakšen Zelen Marsovec, da bo naredil po svoje?

Kaj sploh hočete, kaj sploh verjamete da je možno in potrebno narest, če kaj sploh?

smokey, trpiš za pomanjkanjem logične konciznosti in viškom politične korektnosti.
Man muss immer generalisieren - Carl Jacobi

sm0key ::

nevone:
Ena predpostavka je to, da AI ni drugega kot del narave. To ni nekaj nad njo. AI je samo nujna posledica delovanja inteligence. Tudi človeška inteligenca ni drugega, kot del narave. Razvila jo je biološka evolucija.
Prav. Ampak nihče še ni odgovoril na moja zgoraj zastavljena vprašanja. Tega ne gre spregledat. Ne morem deklarirat nečesa kot naslednji korak biološke evolucije, ker prvič to ni, je kvečjemu konec biološke evolucije, saj bomo od te točke naprej začeli sami "izboljševati" sebe. Nova evolucija torej, ki s svojim pretencioznim predznakom misli, da bodo njeni evolucijski skoki prinesli boljše življenje kot ga imamo danes. In drugič, distanciranje biološkega bitja v navidezni svet ali kibernetsko zavest prinese kvečjemu evolucijo naše inteligence ter stagnacijo, če ne degradacijo fizičnega telesa.

Drugo je to, da nismo zadovoljni s tem, kar nam ponuja biološka evolucija. Tudi sam si rekel, da ti vzorec golega boja za preživetje ni všeč. No, to je vzorec biološke evolucije, ki ga želimo prekiniti.
Njet. Jaz sem bolj ciljal na to, da nismo zadovoljni z trenutnim ureditvenim sistemom, kajti enaizmed "točk manifestacije" transhumanizma naj bi bila tudi prepustitev vodenja AI. In končno, česa ti kot fizično biološko bitje tako primanjkuje? Misliš na inteligenčni potencial?

Seveda v želji in prizadevanjih, da bi ta svet naredili prijaznejši človeku, naletimo na pomisleke. Vendar, kakšna je sploh naša alternativa? Da počakamo, da se biološka evolucija odvije do svojega bridkega konca, in za sabo ne pusti ničesar?
Ni tako črno-belo. Čutim tvoje vzvišene nazore, češ, naše človeštvo ne bo končalo kot dinozavrove kosti...vendar pa vzemimo v "enačbo" več elementov:
1. ali pomeni transhumanizem zgolj premestitev človeške zavesti iz naravnega okolja, oziroma kako nameravamo izboljšati svoj življenjski prostor? S tem mislim tudi več-stoletno zanemarjanje okolja, ki pa se lahko še kar nadaljuje (nič ne kaže na bolje)?
2. S svojo super inteligenco bomo lahko vzdrževali svoj obstoj do neke mere, kaj pa ko se ne bomo več zmožni prilagajati svojemu okolju? Upoštevajte možno radikalno spremembo zemeljske površine v nekaj letih.
3. Zakaj misliš da bo konec bridek? Jaz načeloma nisem proti transhumanizmu, nasprotno, ideja mi je všeč, vendar vidim, da se upošteva vse premalo spremeljivk. IMHO ni bistvo v TRANS* (premestitev) vendar v simbiotskem bivanju z naravo, z razvijanjem njene tehnologije. Tako si lahko zamislimo integracijo človeškega bitja v naravo, seveda z vsemi svojimi tehnološkimi manifestacijami, ki ne deluje proti ali se odcepi od biološke evolucije, temveč je delovanje (vsaj) vzporedno.

A.Smith:
Mislim, da ni treba posebej razlagati, da to pomeni izgubo "človeške" komponente nas samih. Odločamo se torej med "popolnostjo" ter "človečnostjo".
Popolnosti ne bomo nikoli dosegli. Kvečjemu popolnost v izumrtju človeške rase kot dela narave. Poetsko je stremenje k popolnosti.

Thomas:
Ti bi ta "bolni" aspekt človeške duše izboljšal, omilil?
Absolutno. Ta vlak drvi v nepovratni propad.

Nekatere reči bi tako spremenil, da bi bile radikalne spremembe malo verjetne?
Vsekakor radikalne spremembe v mojem primeru ostanejo vprašanje katerega si ne moremo še zastaviti.

Da lepo pokorno počakamo, dokler nam biološka evolucija ne sporoči, da je našega časa konec, da bodo odslej kot volkovi velike podgane lovile orjaške zajce in veverice po nanovo zraslih evropskih, azijskih in ameriških gozdovih. Hijene pa bodo prevzele dominacijo v Južni Ameriki, Afriki in Avstraliji, za določen čas. Dokler se Zemlja ne skuha zaradi rdečega orjaka, Sonca?
Vprašanje, ki bi si ga moral postaviti je, zakaj nas je tega strah? To se še vedno zdi kot kurativno reševanje problemov (ko je že prepozno - in ki lahko a sabo potegne še hujše kaotično stanje. Kako se ga bo kontejnalo?)...z deviacijo od narave bomo lahko sprožili sosledje dogodkov, ki bodo postali tako radikalni, da nas bo narava začela zavračat. Kot virus. Ali bi nastala "vojna" med prevlado narave ali človeka? Misel o ohranitvi človeške duše ob transhumanizmu je utopična, saj bodo takrat zavladali stroji, ne mi. Mi bomo zgolj preslikava algoritma za reševanje problemov, seveda na veliko višjem nivoju (procesorska moč).

Nemara misliš, da bi morali kolonizirati Galaksijo in na vseh planetih gojiti koze in ovce in nekaj zelenjave?
LOL, ta je bosa!

Kaj sploh hočete, kaj sploh verjamete da je možno in potrebno narest, če kaj sploh?
Mislim, da je to vprašanje, ki bi ga mogli zastavit AI (če že)... Kot sem rekel, verjamem, da je možno ostati človeško bitje kot smo danes, vendar bi svvojo tehnologijo prilagodili naravi, to ne pomeni da bo prišel marsovec, ali da bodo zavladale hijene. Govoriš ravno tako, kot da je človeka strah simbioze z naravo in da želi čimprej pobegniti v navidezni svet, ne ozirajoč se na svojo odgovornost. IMO, bi pot za naslednji človekov evolucijski korak bilo uničenje lastnega ega, ter poskus, da se integrira v naravo, (p)ostane njen neločljiv del in morda na tak način "vozi" dalje svojo evolucijo.

smokey, trpiš za pomanjkanjem logične konciznosti in viškom politične korektnosti.
Se strinjam s prvim, vendar je področje, ki se ga dotikam še daleč od neke jasne vizije. Tukaj je potencial za napredek, tukaj vprežimo ves svoj intelektualni potencial. Z drugim se žal ne strinjam, saj me politika zanima le na nivoju satire ;)

Thomas ::

> Vprašanje, ki bi si ga moral postaviti je, zakaj nas je tega strah?

Postavi si tole vprašanje, samemu sebi! Zakaj te je tako strah tega, da prekinemo s primitivno in neučinkovito biologijo? Vzamemo naprimer kakšen dober vzorec, ga nekoliko poeditiramo in zaženemo za milijarde kronoloških in milijarde milijard subjektivnih let, tako izboljšanega?

Pa je lahko v bistvu "butast" scenarij, ko nekaj septiljonov tipčkov in tipic uživa v osladni pron limonadi brez konca, kakor bi ti temu verjetno rekel.

Še zmeraj BISTVENO boljš od tegale sranja, ki ga imamo zdajle.

Sploh, ko si enkrat noter, ti jo to povsem jasno.

Kakšna narava neki, s svojimi kruljavimi zasilnimi in začasnimi rešitvami neki!

> in da želi čimprej pobegniti v navidezni svet

V navideznem svetu, kakršnega ti slikajo tvoji možgani, si že zdaj. Ena precej patetična konstrukcija, roko na srce!

Jaz ne mislim, tako kot večina transhumanistov, da moramo narest nekaj takega, da bo kot "opera for flatworm". Uni osladni pornič, je čist uredu, pa če grejo vsi moralisti in literarni kritiki v luft. Če pa lahko boljš, pa meni tudi prav.
Man muss immer generalisieren - Carl Jacobi

nevone ::

>Ne morem deklarirat nečesa kot naslednji korak biološke evolucije, ker prvič to ni,

Seveda ni. Tega sploh nisem trdila. Pravim, da biološka evolucija je razvila inteligenco, katere naslednji korak je razvoj te inteligence na obstojnejšem in učinkovitejšem substratu.

>distanciranje biološkega bitja v navidezni svet ali kibernetsko zavest prinese kvečjemu evolucijo naše inteligence ter stagnacijo, če ne degradacijo fizičnega telesa.

Fizično biološko telo nadomestiš z nečem drugim, in tisto je še vedno fizično telo, ki je potem nosilec te inteligence.

>In končno, česa ti kot fizično biološko bitje tako primanjkuje? Misliš na inteligenčni potencial?

Primanjkuje mi daljša življenska doba, odveč mi je dovzetnost za poškodbe in bolezni, ker vse skupaj povzročaja preveč bolečine, ... no to bi bilo bistveno, lahko pa seznam dopolnim še s podrobnostmi.

>1. ali pomeni transhumanizem zgolj premestitev človeške zavesti iz naravnega okolja, oziroma kako nameravamo izboljšati svoj življenjski prostor? S tem mislim tudi več-stoletno zanemarjanje okolja, ki pa se lahko še kar nadaljuje (nič ne kaže na bolje)?

Zavesti ne moreš premestiti iz naravnega okolja, ker kjerkoli že je, je to njeno naravno okolje. Lahko pa govoriš o prenosu zavesti iz biološkega substrata nekam drugam. In s prenosom na drug substrat v bistvu skrb za okolje prevzame umetna inteligenca, ki mora pač zagotavljati obstoj zavesti.

>2. S svojo super inteligenco bomo lahko vzdrževali svoj obstoj do neke mere, kaj pa ko se ne bomo več zmožni prilagajati svojemu okolju? Upoštevajte možno radikalno spremembo zemeljske površine v nekaj letih.

Očitno ne razumeš, kaj pomeni prenos zavesti na drug substrat. Zemlje v obliki kot je sedaj, potem ne potrebujemo več.

>3. Zakaj misliš da bo konec bridek? Jaz načeloma nisem proti transhumanizmu, nasprotno, ideja mi je všeč, vendar vidim, da se upošteva vse premalo spremeljivk. IMHO ni bistvo v TRANS* (premestitev) vendar v simbiotskem bivanju z naravo, z razvijanjem njene tehnologije.

Sej v bistvu te razumem. Sentimentalno si vezan na biologijo, ker je ta zaenkrat naše osnovno gonilo. Težko si je predstavljat, da je možno življenje še v kakšni drugi obliki kot tej, ki jo imamo sedaj. Ampak kakorkoli življenje ohranjaš in dokler ga ohranjaš je ta v simbiozi z naravo/okoljem. Zato tudi transčlovek dokler obstaja živi v simbiozi z naravo/okoljem.

>Tako si lahko zamislimo integracijo človeškega bitja v naravo, seveda z vsemi svojimi tehnološkimi manifestacijami, ki ne deluje proti ali se odcepi od biološke evolucije, temveč je delovanje (vsaj) vzporedno.

No sej, tle pa že govoriš naš jezik. Edino česar ne vidiš je to, da biologija enostavno od nekje naprej ni več potrebna.

o+ nevone
Either we will eat the Space or Space will eat us.

Saladin ::

Odločamo se torej med "popolnostjo" ter "človečnostjo".

Kot rečeno - popolnosti ne moreš doseči.

Ni pa nič narobe s stremenjem po njej. Dejansko lahko dosežeš izjemen p/p faktor že z današnjo tehnologijo (oz. kombinacijo tehnologije kot socialnih ved in norm).

Zakaj transhumanisti tako vztrajajo na tem, da nujno potrebujemo izjemen AI, nova telesa, komputizacijo planetov,... da lahko doživimo primeren "preporod"? Zakaj je radikalna evolucija pravi način in ne optimizacija že obstoječega sistema?

Zakaj na moremo že danes ustaviti lakote, vojn, najpogostejših nesreč in bolezni, zmanjšati socialne razlike, sovraštvo, nasilje,...?

Odgovor, ki se tukaj poraja, je zastrašujoč - enostavneje, hitrejše in ekonomičnejše je kontrolirat napredek tehnologije, kot pa doseči konsenz v mentaliteti, politiki, veri, gospodarstvu in ostalih družbenih vejah.

Sem popolnoma ZA napredek - ampak imam občutek, da nekateri iščejo "easy way out", namesto da bi se ubadali z socialnimi problemi.
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

sm0key ::

Kakšna narava neki, s svojimi kruljavimi zasilnimi in začasnimi rešitvami neki!
smešno, a vendar bi se pri tvoji konstrukciji algoritma AI močno opiral na zakone narave... in praviš ji primitivna. Poanta pa je ravno v tej "primitivnosti". Ti pa misliš, da boš z verzijo 1.0 tvoje AI že izpolnil naprimer 10% zastavljenega cilja? AI v svojem razvoju pa ne bi predstavljal tudi začasnih in zasilnih rešitev? Mislim, da podcenjuješ celotno reč in ji pripisuješ nek božanski pomen ;)

V navideznem svetu, kakršnega ti slikajo tvoji možgani, si že zdaj. Ena precej patetična konstrukcija, roko na srce!
res je, živimo že zdaj v navideznem svetu, v svetu iluzij, ki jih narekuje trg in katere plačuješ pa jih sploh ne potrebuješ...just to keep the engine running. Ker nevem na kateri navidezni svet zdaj meriš (trenutna iluzija izobilja v kapitalizmu ali omejenost in subjektivnost dojemanja našega možgana?) bom povedal še, da konstrukcija ni patetična, je taka kot nam je dana, če oseba ni sposobna absolutnega doživljanja prostor-časa okoli sebe in vidi samo racionalne enke in nule, potem te pa razumem.

Postavi si tole vprašanje, samemu sebi! Zakaj te je tako strah tega, da prekinemo s primitivno in neučinkovito biologijo?
Gre za mojo primitivno psihoanalizo človeštva kot celote, in kaže vse simptome izgubljene osebnosti. Ampak še vedno ne razumem, zakaj se obešate na ta minorna vprašanja....postavil sem veliko drugih, tudi bolj na mestu, na tiste nimate odgovora? al....kaj? :)

Jaz ne mislim, tako kot večina transhumanistov, da moramo narest nekaj takega, da bo kot "opera for flatworm". Uni osladni pornič, je čist uredu, pa če grejo vsi moralisti in literarni kritiki v luft. Če pa lahko boljš, pa meni tudi prav.
care to elaborate? ne vidim kam ta izjava meri...

sm0key ::

nevone:

Pravim, da biološka evolucija je razvila inteligenco, katere naslednji korak je razvoj te inteligence na obstojnejšem in učinkovitejšem substratu.
Razumem. In da ta biološka evolucija prizna svoj "poraz", ali se bo potem začela prilagajat nam? Ali bo "izumrl" dosedanji način življenja (govorim o Gayi) ter pustil prostor višje razvitemu in organiziranemu substratu?

Primanjkuje mi daljša življenska doba, odveč mi je dovzetnost za poškodbe in bolezni, ker vse skupaj povzročaja preveč bolečine, ... no to bi bilo bistveno, lahko pa seznam dopolnim še s podrobnostmi.
hmm...to vodi v nenadzorovan porast "prebivalcev"...se nisi nikoli vprašala, kaj bi za zavest pomenilo neskončno življenje? Tuki bi mogla bit kompletna transcendenca človeške biti, ki je ustvarjena za svojih 90+ let obstoja. Kakšno bolečino bi doživljal šele tvoj izboljšan um, ko bi začel razmišljati v neskončnem svetu? Kako bi se manifestiral? Kje bi srkal smisel obstoja, drugje kot da je nek super-spomenik inteligence v (recimo da) končnem vesolju?

Zavesti ne moreš premestiti iz naravnega okolja, ker kjerkoli že je, je to njeno naravno okolje. Lahko pa govoriš o prenosu zavesti iz biološkega substrata nekam drugam. In s prenosom na drug substrat v bistvu skrb za okolje prevzame umetna inteligenca, ki mora pač zagotavljati obstoj zavesti.
:( in ta substrat naj bi nadomestil vse težnje današnjega človeka? se pravi, sposobni bomo napravit popolnoma nov substrat from scratch, ne bomo se pa mogli integrirat v naravo, ki nam je dana?

Sej v bistvu te razumem. Sentimentalno si vezan na biologijo, ker je ta zaenkrat naše osnovno gonilo. Težko si je predstavljat, da je možno življenje še v kakšni drugi obliki kot tej, ki jo imamo sedaj. Ampak kakorkoli življenje ohranjaš in dokler ga ohranjaš je ta v simbiozi z naravo/okoljem. Zato tudi transčlovek dokler obstaja živi v simbiozi z naravo/okoljem.
Se sploh ne strinjam. Danes človek dela vse drugo, kot živi v simbiozi. Danes živi kot virus. Ne more bit v simbiozi, če si sama prej rekla, da se transcendira v drug substrat, ki Zemlje ne potrebuje več...(?) Če govoriš o tistem transčloveku, ki ga zagovarjaš, potem le-ta nima popolnoma nobene veze z naravo, le to, da je izkoristil dano inteligenco.

Saladin:

Odgovor, ki se tukaj poraja, je zastrašujoč - enostavneje, hitrejše in ekonomičnejše je kontrolirat napredek tehnologije, kot pa doseči konsenz v mentaliteti, politiki, veri, gospodarstvu in ostalih družbenih vejah.
Bistvo je napačen fundament na katerem je nastala civilizacija. Upam si napovedat da se bo prej ali slej sesul in bomo vse te konsenze primorani spremeniti in optimizirani. Vera, gospodarstvo in politika pa so samo pojmi, ki definirajo ta fundament. Nič ni narobe z njihovo prisotnostjo, le vrednote so popolnoma drugačne od naravnih. Neka korporacija se razvija po principu neomejene rasti, njen cilj je vsako leto povečati dobiček. Mislim, da mi ni treba na dolgo in široko razlagat kaj vse spada pod to. Vera je pa itak pravljica,ki ljudi drži v vajetih mističnega in jih hrani z sicer lepimi vrednotami in sočutnim življenjem do soljudi in narave, vendar je podrejena agendi sistema in ga neposredno podpira.

Sem popolnoma ZA napredek - ampak imam občutek, da nekateri iščejo "easy way out", namesto da bi se ubadali z socialnimi problemi.
In točno o tem govorim.

Morate vedet da nalašč provociram, da vidim do kam seže ta vaša vizija :P

sm0key ::

Mislim, sej naš novi transhumani svet bo moral tudi imet neko fizično infrastrukturo, še vedno bo odvisen od okolja v katerem je fizično postavljen, razen če imate v glavi scenarij iz Matrice :(

A. Smith ::

Pravzaprav je scenarij bistveno radikalnejši >:D

Daj, preberi si prvo stran. Ali pa prvih pet.
"Be professional, be polite,
but have a plan to kill everyone you meet".
- General James Mattis

sm0key ::

Mislim, sej naš novi transhumani svet bo moral tudi imet neko fizično infrastrukturo, še vedno bo odvisen od okolja v katerem je fizično postavljen, razen če imate v glavi scenarij iz Matrice :(

Aja... in kako mislite, da bo AI dojela svet? Mislite, da AI s svojim super-razumevanjem in sposobnostjo ne bo raje poskrbela sama zase in gonila dalje svojo evolucijo? Ker če Thomas tako lahkosrčno ovrže primitino naravo, bo prav tako lahko storil AI z nami in nas prepustil same sebi... Vkončni fazi smo mi AI-jevi stvaritelji in nekaj v AI bo še vedno človeškega....moralo bo biti, če bo hotelo razumeti naše potrebe ;)

A. Smith ::

Pravzaprav ni res: če hočemo, da nas AI ne bo zabodla v hrbet, ne sme imeti nič skupnega s človekom ;)
"Be professional, be polite,
but have a plan to kill everyone you meet".
- General James Mattis
««
62 / 182
»»