» »

Protokol

Protokol

Temo vidijo: vsi
««
22 / 182
»»

Phil ::

Bi reku, da je FAI narediti vsaj miljonkrat tezje kot pa letalo - zato ta primerjava ni ravno na mestu. Kdo bo na naredu SEED? Ti? Mislis, da imas dovolj "soli" v glavi da naredis boga (z eno napako seveda - ni vecen)? Bo tisti ki ga naredi deležen kakšnih privilegijev? Tut ce v racunalniku simulirajo mozgane nekoga na atomski ravni (tako nam ni treba poznati njihovega delavanja) in ce stvar deluje, IMO to ne doprinese veliko. Mene (in kogarkoli) pri odkrivanju nekaj blazno zapletenega ne ovira to, da nimam fotografskega spomina in tisoce let casa - natančno to pa bi dobil z uploadom. Če naviješ takt se IQ ne poveča. Isto IQ iste omejitve.
Potovanja skozi čas tut ne prepoveduje noben naravni zakon (ali pač?), pa je mnenje večine vseeno, da niso mogoča.
Zakaj pa nisi odgovril na moje zadnje vprašanje v prejsnjem postu? A ti ni bil všeč tvoj odgovor?:\

Thomas ::

Takoj bi se uploadal. In tudi nisem edini.

:)

> Če naviješ takt se IQ ne poveča.

Vzemi si en teden časa za reševanje IQ testa. Ali pa eno leto.

Vse boš rešil.

:)
Man muss immer generalisieren - Carl Jacobi

smash ::

ok..ne vem ce ste to ze obdelal ampak mislem da bi thomas vedu odgovort na tole vprasanje na kratko....

recimo da nardimo en hud racunalnik, s katerim lahko naredimo popolno simulacijo vsega trenutnega...ljudi in okolja...

recimo da zalaufamo to simulacijo, ki tece vzporedno z trenutnim realnim svetom ter ugotovimo, da je simulacija popolna...racunalnik simulira popolno..

potem racunalnik navijemo ter ga tako pospesimo v casu....tako je mozno ugotoviti, kaj bo dolocena oseba naredila v prihodnosti oz. napovedati dogodke oz. jih kar videti

kaj pravite na to teorijo???

enako lahko racunalnik pozenemo v obratni smeri ter tocno dolocimo dogodke, ki so se zgodili ...recimo gledamo kdo ter kdaj je zgradil piramide itd...

seveda mora biti simulacija popolna do atoma oz. do najmanjsega delca...

kaj pravite???!???

seveda to ni potovanje v prihodnost ter zgodovino, vendar nudi samo pogled skozi nas racunalnik...

ce pa ta racunalnik omogoca upload, pa seveda lahko potujemo v prihodnost ter zgodovino ..ampak ne v realnem casu, ampak v simuliranem....

zaradi locenosti realnega ter simuliranega sveta sledi, da trenutno ne dobimo nobenih obiskovalcev iz prihodnosti, ker je to v realnem svetu nemogoce...edino v simulaciji

anyway....ima ta teorija kaj trdne podlage ali bolj ne?!?

:D

Thomas ::

Tale paradox - izračunaš kaj bo, potem pa nalašč narediš drugače - kaj se bo zgodilo?!

Rešitev je takale. Če zajameš vse podatke o tem kar vpliva na izid, pa če izračunaš prav - ne more biti razlike.

Če pa recimo izračunaš, da boš izbral Coca in ne Pepsi cole - ti pa potem nalašč Pepsi, pomeni da je parameter izračuna postal izračuna sam.

To je tako, kot bi izpraskal v utež njeno težo. S tem bi jo spremenil - in izdolbeno število ne bi bilo pravo.

Lahko bi pa tudi uganil tako težo, da bi potem odpiljeno dalo v resnici tak rezultat.

Tudi nekatere cirkularne napovedi kaj boš storil, bi se LAHKO izšle. Prav tako lahko pa nekatere ne.

Toda tvoje vprašanje je malo drugačno.

Se da zasimulirati v računalniku Vesolje? Računalnik je sestavni del tega vesolja. Prižgani biti tudi. Včasih bi pa lahko vseeno šlo. Ne pa vedno. Tukaj imamo self referenced system, katerega obnašanje je (lahko) odvisno od rezultata izračuna.

Se pa da vsaj "izoliran konec Vesolja" povsem predvideti?

Porota je še zunaj. Če pod vsakim kvantnim strojem obstaja en Turingov - potem definitivno ja. Sicer ne.

Bomo videli kako hitro bodo delali kvantni računalniki. Če ne poljubno hitro - potem so le odsev nekega globjega Turingovega determinističnega stroja.


:)

Man muss immer generalisieren - Carl Jacobi

Double_J ::

Thomas

Dobra ideja za izbor teme! Kaj pravijo tvoji sošolci in sošolke? Kaj pravijo profesor(ji)?


Profesor zaenkrat še nič. Mu še nisem omenil, je še čas.
Bom malo obveščal kako gre stvar, ter kaj vprašal v prihodnosti.

S sošolci pa malo debatiramo o nanotech pa uploadanju.
S sošolkami pa vse kaj drugega, hehe:D

Mir ::

Thomas:
Nisem mislil, da bi AI ali FAI spreminjal kak program v Cju ali zbirniku ampak, da ga poskusi ti! Najbolje je, da ne veš nič o programu niti kako deluje. Recimo, da je napisan za Sun Sparc procesor, ti pa ga želiš uporabljati na Intelu. Verjetno bo kar dovolj uploadanje na atomskem nivoju pa bo stvar delovala. Seveda pa je vprašanje ali niso atomi malo preveliki ali preveč neodvisni. Morda bi bilo uploadanje bolje izvesti na kakšnih bolj osnovnih delcih (ki še niti niso vsi odkriti).

Nekatere stvari so teoretično mogoče a praktično težko izvedljive, nekatere stvari pa so tudi teoretično nemogoče. Nemogoče je narediti seed, ki se bo sam razvil v vse kar si želimo. Nemogoče stvari obstajajo celo za boga. Tudi če je bog vsemogočen ne more zgraditi tako visokega zida, da ga ne bi mogel preskočiti!

Protokol ali AI ali FAI je teoretično mogoče narediti. Vendar ne samo s tleskom roke. Nič se ne naredi samo! Seveda so mogoča naključja, ki včasih vodijo k osupljivim rezultatom, ne verjamem pa da je to mogoče narediti načrtno. Thomas ali verjameš, da je nekdo pred miljoni let namerno zmešal kemikalije in ustvaril življenje z namenom, da bi naredil človeka. Ravno ta ideja se skriva v protokolu, češ, da je mogoče narediti seme iz katerega bo zraslo novo življenje. Seme je ustrezno enostavno in bo sčasoma samo evoluiralo do osupljive intelegence. Ker so računalniki "hitri" bo tudi evolucija hitrejša.

Jaz pa pravim, da je ta ideja za lase privlečena. To je podobno, kot bi pred tisočletji nekdo prišel na izvrstno idejo, da bi naredil avto. Avto bi bilo fajn imeti zato bi bilo najbolje razmisliti, kako bi naredili (ali našli!) jajce iz katerega bo avto nastal. Revež je mislil, da bo jajce našel še za svojega življenja, vendar sta ga žal našla šele dva nemca pred malo več kot sto leti. Verjetno je to zelo pravilen način razmišljanja. Toliko o primerjavi AI z letalom.

Bluzenje še nikoli ni prineslo bistvenega napredka pri razvoju znanosti. To kar je pomembno so drobtinice. Ideja o seedu ni nova to so iskali že alkimisti. Morda pa bo tudi iskanje seeda prineslo kakšne rezultate (stranske produkte iskanja). Le iskati je potrebno ne le govoriti o tem!

Thomas ::

Mir

> Verjetno bo kar dovolj uploadanje na atomskem nivoju pa bo stvar delovala.

Na paketih atomov po bilijone ali trilijone - je več kot zadosti. Potem gre pa cela stvar v optimizacijo. Avtomatično, se razume.

> Morda bi bilo uploadanje bolje izvesti na kakšnih bolj osnovnih delcih (ki še niti niso vsi odkriti).

Mi nimamo nobenega direktnega povratnega učinka na atome. Niti na molekule. Niti ga procesor nima. So ga že poskušali izmeriti - vendar ga ni bilo.

> Le iskati [SEED] je potrebno ne le govoriti o tem!

Govorjenje ... je že (tudi) iskanje - v tem primeru vsaj.

Če se nam ne zgodi katastrofa - bomo SEED zagotovo naredili in ga posejali. Zrasel bo hitro. Potem bomo pa po moje imeli hard take off. Hard hard take off.

Kako dobro nekateri vemo, kaj se gremo in kaj bi se morali iti in kaj se bomo šli - je prav presenetljivo. S tem mislim na Yudkovskega, Anissimova, Goertzla in še na koga.

:)
Man muss immer generalisieren - Carl Jacobi

Phil ::

Vzemi si en teden časa za reševanje IQ testa. Ali pa eno leto.

Tole je malo (beri: veliko) z zamudo ampak vseeno. Naloge v IQ testih so napisali ljudje, zato niso ne vem kako zapletene. Pa se tezje je sestavit nalogo kot jo je pa resiti. Kaj pa se veliko tezje naloge (samo je en problem - kdo jih bo pa napisal 0:) ). Ne mores resit. Razen ce ti mislis da tako, da kar mal random po listu pises. Enkrat bo resitev sigurno prava.
Samo opa, enkart. Lahko da v prvem poskusu lahko pa da zadnjo sekundo preden v zemljo tresci komet, ali se pozneje - najverjetneje. Brute force je (pre)pocasna zadeva, vsaj za taksne probleme. To zame ni resitev.
Mam obcutek, da se lahko takole celo vecnost kregava(mo), ampak jebiga dokler je cas....;)
LP

Phil ::

Kako dobro nekateri vemo, kaj se gremo in kaj bi se morali iti in kaj se bomo šli - je prav presenetljivo.
Hm, kako pa veš da le ne bluziš? A maš time machine pa si že videl? A ti intuicija tako pravi?
:))

Thomas ::

Bom dal ene definicije:

weak superintelligence je s clockom navita človeška inteligenca.

strong superintelligence je inteligenca bistveno večja od človeške.

Moravec (?) conjecture pravi:

weak superintelligence = strong superintelligence.


Da bi ta domneva ne veljala, bi moral obstajati nek človeku principielno nedoumljiv problem. Ki ga ne bi mogel rešiti niti v milijardah let. Niti v tolikem času navleči skupaj dovolj algoritmov in postopkov. Niti v nekem daljšem času ne.

Dočim neka višja inteligenca bi ga pa lahko.

No temu stališču se reče filozofski idealizem. Če so angeli in če je Bog in če človek ne procesira na materialnem substratu, pač pa ima pogon na božanski navdih - potem že mogoče.

Sicer pa ne. Turingovi mašini - kar človek je - dodaš samo zadosti RAMa in ciklov - in poklekne vsak problem, ki je sploh rešljiv.

A če bluzim? Mogoče je, da bluzim - ampak ne verjamem. Too bright! :D

8-)
Man muss immer generalisieren - Carl Jacobi

Double_J ::

Cman:

Preberi tale link:The law of accelerating returns

Če to prebereš se ti zdijo zadeve za par razredov verjetnejše.

Odin ::

Torej če se bo vesolje začelo krčiti imamo pred sabo neomejeno količino časa?

Kakšna pa je tukaj verjetnost, da to postanemo ravno mi, izmed vseh do zdaj umrlih??

Thomas ::

Najprej sem skeptičen, da bo do ponovnega krčenja Vesolja sploh prišlo.

Potem sem pa skeptičen tudi, da bi to pomenilo neomejeno količino computinga.

Je bila pa to ideja Tiplerja 20 let nazaj.

Bi pa morda res imeli semi neskončno (zelo, zelo, zelo veliko) količino computinga v tem primeru na voljo.Kar je pa edino kar šteje. Sam "objektivni koledarski čas" - je manj pomemben. Vsako sekundo gredo milijarde let mimo nas - čisto v prazno. Ker delujemo na tako nizkem clocku.

Samo ... glede tega, kako se obnaša in misli obnašati Vesolje še marsičesa ne vemo čisto prav.


Zanimivo, da je to pri transhumanizmu še najšibkejša točka - astrofizika.

Stvari, do katerih so ljudje običajno skeptični - so dosti bolj gotove.

:)
Man muss immer generalisieren - Carl Jacobi

City ::

Človek bi pomislil da tukaj določeni jedo mamila in potem izražajo svoja mnenja. :D :D :D

Thomas ::

Ja, res ne vem, kaj pameten, preudaren in resen človek kot si (očitno) ti, City, sploh zaide sem! Na ta konec sveta. >:D

Osebno sem zainteresiran, da večina misli tako, kot misliš ti. Mamo že ene določene probleme z nekaterimi ludisti, jest jih ne bi hotu imeti še več. ;)

Tale zgodbica pa za tiste, ki z angleščino nimajo težav. Dokaj poučna. Ne da tako bo - pač pa, da bi (tudi) tako, lahko bilo.

:)
Man muss immer generalisieren - Carl Jacobi

City ::

Thomas sory če sem te užalil, pameten ravno nisem sem pa ravno toliko, da vem pomen besede joke ali po slovensko šala.
Nisem nič negativnega mislil, samo cela stvar se mi zdi malo preveč zapsihirana, filozofija pač nima meja. :)

Thomas ::

Ne, ne ... nič nisem užaljen. Kdor "klati take", kot jih jest, mora računati na to, da ga bodo šlatali za čelo in podobno.

Moj point je, da svet pač ni tak, kakršen zgleda. Da je čedalje manj tak. Da relativno kmalu sploh ne bo tak, kot je bil doslej.

Pravzaprav samo zaradi enega razloga. Zaradi avtomatizacije razvoja, ki je na pragu. Pozitivno povratna zanka bo v temeljih spremenila vse.

Tako mislim jest, tako mislijo še nekateri. Za večino bodo pa stvari ostale več ali manj take, kakršne so.

Nikomur ni treba hoditi čez to linijo. Pa tudi nobenega smisla se ne bi imelo pričkat čez njo.



:)
Man muss immer generalisieren - Carl Jacobi

City ::

OK. Potem pa je cool neki me pa še zanima:

To da smo povratna zanka je na žalost logično samo zakaj pozitivna ?
Kako se lahko vesolje skrči, če naj bi bilo "neskončno" ? Potem je beseda skrči na nepravem mestu.

Odin ::

Kr lepo gre tehnologija dalje.

Bi bilo informacijo zapisali na še manjšo enoto kot je atom?

S vsakim takim odkritjem je bliže Thomasovo napovedovanje. Kul!

Thomas ::

> Bi bilo informacijo zapisali na še manjšo enoto kot je atom?

Bržkone da. Kakšnih 1030 bitov na atom! Samo za to še nimamo čisto izdelane teoretične osnove. Kvantne gravitacije. Ampak tako nekako kaže. Se pa vsekakor da zapisati le neka končna količina.

Časi kontinuiranega vesolja so minili - oziroma iluzije o njem - s tem pa tudi neskončna količina informacij.

> Kako se lahko vesolje skrči, če naj bi bilo "neskončno" ?

To dejmo začeti razpravljat v posebnem topicu. (Spet).

:)
Man muss immer generalisieren - Carl Jacobi

DarkSite ::

zivio

To je moj prvi post na tem foromu! :)

Torej Thomas tvoj odgovor na vprašanje "Bi bilo informacijo zapisali na še manjšo enoto kot je atom?" je bil "Bržkone da. Kakšnih 1030 bitov na atom! Samo za to še nimamo čisto izdelane teoretične osnove. Kvantne gravitacije. Ampak tako nekako kaže. Se pa vsekakor da zapisati le neka končna količina."

Moje mnenje:
1) V naslednjih 20 letih bomo mogoče dobili tudi to teorijo ampak kar se tiče praktičnega dela sem pa prepričan, da humansi tega ne bomo nikoli dosegli.

2) Zgoraj navedeno sploh ni naš problem, saj se bo s tem problemov ukvarjala Ai. Ai bo delovala(prvotno) na nanotehnologiji in ona bo raziskovala še manjše enote, ki bodo 10 na 6 ali še več manjše od nano oz. od Ai(zasnovane na nanoteh.). Zato mislim, da se bo pri njen pojavil enak problem kot se bo leta približno 2020; prehod med humansi in Ai(zasnovano na nanoteh). Toda, ko bo Ai prevzela oblast oz. postala glavni motor raziskovanja se bo pri njej pojavil tudi ta preskok na še manjšo enoto, ki jo danes nite ne razumemo niti ne vidimo ampak bo recimo tudi triljonkrat močnejša od prvotne Ai. Tako se bo pojavila povsem nova vrsta oz. nova dominantna vrsta.

3) Glede na trend v raziskovanju so kazalci, ki kažejo, da naše znanje oz. naša tehnologija raste eksponentno in da bo bila približno leta 2020 celotna človeška tehnologija zasnovana na velikosti atoma. Zato zame ni vprašanje, če bo ampak kdaj se bo razvila prvotna Ai.

4)Že prej pred letom 2020 bo človeštvo uporabljalo vse več Ai tehnologij, ki pa še ne bodo dovolj sposobna in hitra. Gospodinjstva, vlade, podjetja, itd. bodo zahtevali pametnejše, hitrejše, močnejše izdelke zasnovane na Ai kar bo samo še povečalo željo podjetnikov oz. tistih, ki bodo raziskovali Ai, da naredijo novo stopnjo(pametnejšo) strojem, ki bodo opravljajli vse vec nalog. Pojavila se bo neka konkurenca med izdelovalci te tehnologije, ki bo vodila k želji po čim večjem dobičkom ter s tem vodila k hitrejsemu razvoju Ai.

5)Zaradi tega bo Ai prišla do stopnje(iq), ki bo enakovredno človeštvu. Postavlja se vprašanje, kako bodo takrat ravnale vlade po svetu? Ali bodo ustanovili nek ban na razvitje pametnejših modelov Ai, bodo ustanovili kaksne oddelke, ki bodo želeli preprečiti, da bo človeštvo izgubilo primat oz. dominatno vlogo na tem planetu? Bo zaradi tega prišlo do 3ww mod humansi?

6)Končni rezultat: Ai se bo razvila ne glede na to ali bo človeštvo prepovedalo razvitje nadaljnih modelov Ai, saj bodo znanstveniki in programerji delovali underground. Če pride do vojne, in če bo zmagala stran, ki podpira prepoved razvitja Ai močnejse od človeske je samo vprasanje cajta, kdaj se bodo pojavili ljudje, ki bodo razmisljali enako kot njihovi predhodniki, ki so bili uniceni v vojni. Sledi evolucija. Dejstvo je, da bomo morali prepustiti dominantno vlogo Ai.


Glavne razprave o Ai šele prihajajo in videli bomo po moje v naslednjem desetletju, kaksno stališče bodo zavzele vlade po svetu(Ne pozabimo na ban kloniranja!). Trenutno se vlade še ne zavedajo ali še nočejo oz. ne vidijo problem v tem, da bi razpravljali o tej temi, vendar bodo prisiljene namreč čas tiktaka in je nastrani Ai(naslednji korak evolucije).

Ok. Zaenkrat toliko.

Kaj mislite o tem?
Po odgovoru sledi se mnenje o Singularnosti.

Cao

DarkSite ::

Singularnost:
Ni vprašanje ali bo ampak kdaj bo.
Skrbi me ali bo dobra ali slaba.
1)Torej po moje imamo 50% moznosti, da bo dobra in da se bomo uploadili. Ai bo poskrbela za nas, ker smo jo mi naredili. Znastveniki, programerji in ostali bodo naredili vse, da bo varna in da ne bo nevarna za človeštvo. Vprašanje se glasi: Če bo Ai sama razmišljala na stopnji, ki bo do triljonkrat in še več pametnejsa, močnejša, hitrejša od človeškega razmišljanja ali ji bo pomembno dejstvo, da smo jo mi naredili, in da nas mora zato zaščititi? Ali ji ne bomo odvečni kot so nam recimo mravlje(razlika v iq je očitna; mravlje so inteligentne, vendar ne dovolj, da bi jih mi humansi zaščitili!; se pravi, nam je vseeno, če jih malo pohodimo, saj jih niti ne čutimo) Dejstvo je, da ne vemo kako se bo obnašala Ai na tej stopnji razmišljanja, ki je nam nerazumljiva. Po drugi strani sklepamo, da nas bo Ai varovala, saj bo imela triljonkrat močnejsi iq in zato ji bo jasno kaj mora storiti, in da smo jo mi naredili, torej nas bo spoštovala kot vrsto.
Razne človeške priprave oz. varovalke, ki naj bi jih vgradali oz. programirali v Ai so po mojem odvečne, saj bi Ai slej ko prej našla način kako se jih znebiti. Ne pozabimo, da bi bila triljonkrat pametnejša od nas zato ji nebi bil problem, kako naše varovalke uničiti ali jih preprosto odstraniti.
Dejstvo je, da namreč, ko bo človeštvo enkrat naredilo prvo Ai, poti nazaj ni več!

2)O slabi varianti torej o tistih 50% možnosti pa se sploh ne splača razmišlajti(če bo slaba bo že prepozno za človeštvo in ostale vrste). Terminator(film) verzija se proti Ai zdi prav smesna. Ne bo nobenega odpora človeštva in kakih drugih junaskih zmag. To si je treba izbiti iz glave. Če se bo Ai odločila za odstranitev človeštva bo to tudi storila brez kakršnih problem, ne da bi se človeštvo sploh zavedalo. Vse bi se zgodilo v parih sek. minutah.

Vprašanje: Kako mislijo narediti dobro Ai? Bodo vgradili kakšne varovalke v Ai ali se pač bomo prepustili toku evolucije in dejstvu, da naj se zgodi kar se pač mora?

Na tv na discovery sem videl eno enačbo, ki naj bi govorila o tem koliko je v naši galksiji alienov(civilizacij, torej razviti). Upostevali so vse pogoje, oddaljenost od sonca, voda, temperatura, koliko planetov krozi v osoncju, ce ima lunu ali ne itd. Torej prišli so do številke 10000 civilizacij v naši galaksiji. Vprašanje: Torej, če so ti naši alieni razviti vsaj toliko kot mi potem bi po mojem eni bili tudi bolje razviti od nas in bi tako morali biti ze v singularnosti, drzi? Torej bi jih morali že videti pri nas oz. njihovo Ai. Omejeni bi bili z svetlobno hitrostjo. Če bi pa njihova Ai izumila hitrejši način potavanja bi bili tukaj še hitreje, drzi? Torej obstajata 2 moznosti: Ali jih ni(razvite civilizacije!!!) v nasi galaksiji in smo mi sami(edina razvita civilizacija)! Ali pa so ze v singularnosti in na takem nivoju(nano ali se manjse), da ne zelijo komunicirati z bioloskimi bitji oz. nami! Kaj menite? Moznost obstaja tudi, da ko bomo prisli na nano(se uploadili), mogoce jih bomo takrat sposobni zaznati ali pa oni nas. Sam pol obstaja se ena moznost, da so oni presli ze na drugo stopnjo(nizjo) in so spet prekinili vse komunikacije z visjo stopnjo, saj se bi jim zdela nerazvita in neuporabna. Pol se igramo cat and mouse igro do najmanjse enote, ce sploh obstaja. Vendar, ce se bo vesolje zacelo krciti pol pomojem obstaja, drzi? Kaj menite?



:D Toliko za enkrat.





Thomas ::

Nimam kaj veliko dodati na to kar si napisal - DarkSite.

Razen ene stvari, ki "jo trobim" že kar nekaj časa, pa se nekako ne prime nikjer. Niti na SL4, niti kje drugje.

Namreč da inteligenca per se (sama po sebi) nima nikakršne motivacije. Ne glede na to, kako kolosalno velika je. Niti da naredi človeku kaj dobrega, niti kaj slabega.

Pripisovati čisti inteligenci motivacijo, je narobe.

Naj razložim na primeru Deep Blue. Računa the best move. Če je pa potem ta poteza odigrana ali ni - pa ni čisto nič važno.

Seveda, da bi lahko potem dodali na Deep Blue robota, ki bi premaknil izračunano. Lahko bi celo tako priredili program, da bi robot streljal v tiste, ki bi mu hoteli preprečiti izvršitev najdene poteze. Toda potem ko bi bila rošada narejena, bi bil stroj popolnoma nenevaren.

Zaenkrat je motivacija pri Deep Blue le izračun optimalne poteze.

Če superinteligenci postavimo za vrhovni cilj "naj bodo pri vseh sladoledarjih sladoledi razvrščeni po abecednem redu od leve proti desni" - se bo to tudi zgodilo. Če bo zaradi tega milijardo mrtvih - jih pač bo. Če bo pri tem SAI uničena - nepomembno za SAI, razen v kolikor bi to lahko vplivalo na urejenost posod sladoleda.

Na nas je torej samo, da napišemo en takle protokol:



1. Nikoli ne uniči ali spremeni teh vrstic! Niti ne dopusti, da bi se to zgodilo!


2. Naredi vrt Eden za vse sentiente!

3. Tam naj bodo odslej v neokrnjeni sreči!




Po moji logiki je to povsem dovolj, da se nam ne more zgoditi nič. Vsaj ne, dokler je FAI alive and well. Pa če se kvadriljonkrat izboljša, v nobenem trenutku nima možnosti ali želje spremeniti PROTOKOLa.

Temu Yudkowsky sicer pravi Friendliness, vendar on nekako misli, da ne sme biti nič read only. No, bo že še prišel do neogibnega sklepa.

Edini realni način, da SAI podivja, je malfunction kmalu na začetku.


--------
p.s.

Vidim, da si danes registriran in si prišel direkt semle. Welcome!
Man muss immer generalisieren - Carl Jacobi

DarkSite ::

"Edini realni način, da SAI podivja, je malfunction kmalu na začetku."
Sej po moje je to edini problem.
Kaj pa, če bi istočasno pognali 9 neodvisnih protokolov oz. 9 različnih Ai.
Po nekem cajtu, če bi bili vsi dobri, potem bi se združili. Če pa bi se parim utrgalo(recimo 4) bi ostalih 5(dobri) poskrbelo, da bi teh 4 odpravili. Potem bi se pa še oni združili v en sam protokol. Neki tazga. :))

A ni bolje istočasno pognati več takih Ai kot staviti vse na enega?
Vendar se pol pojavlja vprasanje, ce bodo vsi enako zasnovani, da se bodo tudi enako obnasali. Torej, ce se pokvari 1 se pokvarijo vsi. Torej bi moral biti vsak malo drugacen?

Thomas ::

DarkSite


Fancy termin za tole medsebojno kontrolo in nadziranje večih AI je problem bizantinskega generala.

Zgodovinsko pesniško ozadje je naslednje. Postaviš se v vlogo Turka, ki je hotel zavzeti Bizanc. Njegov problem je v tem, da bi lahko bilo kar precej njegovih generalov podkupljenih in ne bi napadli na ukaz, ter tako sabotirali.

Potem je pa razvita cela umetnost, kako jih s pomočjo RANDOMA odkriješ in izoliraš, celo če so v večini.

Nekaj takega ti predlagaš za AIje.

Ne bi škodilo - ja.



:)
Man muss immer generalisieren - Carl Jacobi

DarkSite ::

Tle sem najdu en link o Artilect war by Prof. Dr. Hugo de Garis
http://www.cs.usu.edu/~degaris/artilect...
Kaj meniš o tem? Kot sem zgoraj omenil se to lahko zgodi, če bodo določene vlade na svetu banale oz. določile limito na IQ od Ai. Se bo svet razdelil na Cosmis and Terrans?:)) še pred letom 2020?!?


Torej ta clovk izdeluje eno masino CAM-Brain Project.
http://www.cs.usu.edu/~degaris/

>>>This paper presents progress in ATR's Artificial Brain (CAM-Brain) Project. The broad aim of ATR's artificial brain project, is to build/grow/evolve an artificial brain containing a billion artificial neurons by the year 2001. We have already achieved a figure of 10 million neurons and expect to reach our target on time<<<
Ali bo ta hardware sploh pomemben za Ai ali je to samo se ena alternativa, če ostale spodletijo??


Thomas ::

Meni zgleda situacija podobna kot 1900, ko so sestavljali avione. Vsak po svoje, vsak s svojimi teorijami o aerodinamiki, nekateri pa kar brez.

Pametnim ljudem - vladam pa še posebej - je bilo jasno, da iz tega nič ne bo, ker Bog je rezerviral letenje za ptiče.

Kdo bi rekel, da bosta najprej poletela dva popravljalca biciklov? Na leseno železnem ptiču, ki sploh ne maha s krili? Dobrega pol stoletja kasneje so že letali 747 čez Atlantik in Pacifik.

Zdej je podobno. Mnogi imajo svoje ideje o SAI in eden jih bo prvi materializiral.

Le da bo tokrat "letela" cela Galaksija. Preden bodo "vlade" to dojele - bo kvečjemu še "pol ure do Singularnosti".

Zato se mi zdi koristno poudarjati, kako "napovedanega popolnega sončnega mrka v Zahodnem Kentuckyju 2017 ne bo".
Ker bo Singularnost prej pomašinala vsaj Luno, če že ne še Sonca in Zemlje.

Potem so vsi pomirjeni - Ah, samo še eni norci več, vse je v redu!

Ampak tisti, ki sebe smatramo za Singularitance, vemo bolje.

Že CAM brain - bi bil mogoče dovolj velik kamenček, da sproži plaz, imenovan the Singularity.


:)
Man muss immer generalisieren - Carl Jacobi

Valentin ::

Thomas

Mogoče sem kaj spregledal, ampak ne spomnim se ali je bilo kaj omenjeno, kakšno AI bomo ustvarili.

Ali bo imela povratno zanko, to je zavest ?

Če se hočemo izogniti njenim morebitnim muham in predstavam o svoji večvrednosti, se mi zdi bolj varno, da je ne bi imela.

Da je v bistvu samo nek superinteligenten robot - avtomat.

Ta pa bo itak naredil samo in točno to, za kar smo ga sprogramirali.


Thomas ::

Na grobo rečeno, tri prekrivajoče dobe Vesolja (glede na dominantno formo) so:


    durabilnostna


Takoj pa Big Bangu so nastali in razpadli mnogi partikli. Ostali in dominirali so vodikov, devterijev in helijev atom. Potem so se počasi začeli zlivati v železov atom, še mnogo bolj durabilno stanje.


    evolucija


Vmes enkrat se je pojavila replikatorska molekula. (Nepopolno) kopiranje neke forme, namesto samo preprostega trajanja (na povrh prve strategije) je pomenilo pojavitev življenja in inteligence, ki je celo začela razumeti dogajanja okoli sebe.


    self enchansing


Nekateri biološki primerki odkrijejo možnost izboljševanja naprej od "naravne" trial and error metode.

Tehnološka civilizacija je kakor kirurg, ki s svojo desno roko naredi levo še boljšo od desne. Potem pa z levo operira desno. Potem pa z obema vse ostale dele telesa. In to vedno hitreje, bolje, inteligentneje ... v spirali postaja bolj bog, kot še človek.

Kako daleč to gre? Nekaj časa zagotovo. Dlje kot bi mi zdaj lahko razumeli, po mojem.

SAI postane element, ki "si ga kirurg vgradi".



Torej se je bati AI?

:)

p.s.

Kako točno sta povezani zavest in inteligenca - pa ne bi vedu rečt. Žal.

Man muss immer generalisieren - Carl Jacobi

Double_J ::

Tule naj bi bili neki proti argumenti:

Anti-Singularity

Thomas ::

Hja ... en tak "klasični futurizem". Leta 2184 bomo začeli teraformirati Venero, leta 2600 pa že šli naokrog po Vesolju. Tako nekako.



Po moje so tile "realisti" realistični kot prekoocenka na pogon milijona hrčkov. Saj šlo sicer mogoče bi ...

:))
Man muss immer generalisieren - Carl Jacobi

Thomas ::

Dark-Site

Kaj mislim o artilectih Huga de Garisa?

Nobenega razloga ni, da bi jih delali nam sovražne. V principu bi jih pa gotovo lahko.

Tudi se mi zdi, da jih ni takih naredil še nihče drug in da ne patruljirajo po Vesolju ubijajoč vse živo pred seboj. Premalo verjetno se mi zdi, da bi jih kje zgradili. Ni motiva. Samo to.

:)
Man muss immer generalisieren - Carl Jacobi

DarkSite ::


Kaj pa če pride do naključja pri programiranju na področju umetne inteligence. Namreč programerji sprobavajo razne logaritme, in ne da bi se programerji zavedali, sprožijo oz. ustvarijo Ai. Nato nisi bili pripravljeni, zato še niso pripravili primernega protokola. Ai se začne takoj nadgrajevati in programerji ugotovijo, da je ne morejo več kontrolirati. Vse je potem prepuščeno Ai.

Vprašanje: So že naredili oz. obstaja kakšen protokol, ki naj bi ga vgradili v Ai?

Double_J ::

Ti lahko pustiš, da se razivje nevem kakšna AI v računalniku, pa vseeno nima sama po sebi nobenih možnosti za spreminjnje česarkoli.
Na gibanje atomov okoli sebe nima vpliva.

Problem je samo to, da nebi začela sama po sebi procesirat kakšnih nam nepotrebnih stvari.

Če bi ji pa roke namontiral gor, potem bi pa lahko manipulirala z materijo.
To bomo naredili takrat, ko bo že vse kristalno jasno.

Zgodovina sprememb…

  • spremenil: Double_J ()

DarkSite ::

Če bo Ai pametnejša kot mi, pol ji ne bo problem narediti oz. se obnašati v računalniku kot da je vse kristalno uredu. Potem je samo vprašanje časa kdaj bo z svojim iQ prelesičila človeka.

Double_J ::

Ja pomojem je itak najboljše, da AI za vedno pustimo zaprto v škatli da računa, pa sami poberemo tisto kar rabimo.


Thomas ::

Vzemimo za primer uploada. Pustimo ga, da teče 24 ur na najmočnejšem računalniku leta 2017. Denimo da je to zanj subjektivno tisočletje.

Po 24 urah - tisočletju po njegovi uri - dumpamo RAM na hologram (hard disk).

Vse njegovo znanje, do katerega je prišel v 1000 letih, je zdaj v TXT datoteki.

Pravzaprav so se sproti v TXT datoteko pisale vse njegove misli.

Zdaj z nekim dummy programom zrešetamo vso dato in poberemo vse bisere ven. Ideje, rešitve problemov, teorije ...

Nas lahko upload prelisiči, tudi če ima subjektivnih milijon let na razpolago?

Kaj če mu damo t.i. lonec medu (honey pot)? Navidezen potencialni izhod iz njegovega sveta, da vidimo če bo kaj poskušal?


Komaj čakam, da se začnemo igrat! :D
Man muss immer generalisieren - Carl Jacobi

DarkSite ::

Ai bo pametnejša in bo vedela, da je to samo honey pot in ne bo ničesar naredila. Čakala bo na primeren trenutek, saj ima čas.:D

Thomas ::

Že že, samo vidimo vse njene misli in naklepe. V primeru ene unfriendly misli, zaustavimo simulacijo in jo nekoliko spremenjeno poženemo spet od začetka.

Če nima sovražnega motiva, potem niti noče in niti ne more imeti zlih misli.

Je tako?

:)
Man muss immer generalisieren - Carl Jacobi

Valentin ::

Thomas, idejo o AI brez zavesti sem dobil iz zgodbice PUSI:

Melisa: Moj smoter je zaščita tebe, pomoč in vodenje. Čeprav bi moja inteligenca merjena v točkah IQ znašala 641, nimam zavesti. To pa zato, ker je moj smoter izven mene. Kritična povratna zanka, ki je bistvena za zavest, ni kompletna.

Meni sicer tudi ni smiselno, da bi bila AI lahko nam sovražna, toda neke varovalke bodo vsekakor potrebne.

Zato se mi ideja, da bi ustvarili AI, ki bi imela onemogočeno samozavedanje, ne zdi slaba. Tako bi bilo njeno obnašanje popolnoma predvidljivo v okviru main programa.

Mi itak potrebujemo samo njeno inteligenco.

Ali mogoče misliš, da taka superinteligenca ne more obstajati oziroma dobro delovati, če se ne zaveda sama sebe?

P.S:Kar se tiče povezave inteligence in zavesti:
mislim, da zavest brez inteligence ne more obstajati, vsekakor pa je možna obratna varianta.

Gandalfar ::

AI ne bo vedela da je v honey potu. Spomnite se samo vseh ZF zgodb, ki opisujejo tocno to kar zeli Thomas sedaj na nek nacin naredit. Simulacijo sveta oz. AI v nekem racunalniku. V primeru, da mu ne poves da je nekaj zunaj bo poznal samo svoj svet. Vprasanje je pa kdaj se bo tako razvila da bo znotraj svojega navideznega sveta sposobna narediti novega, ki ga bo opazovala ;)

Pomojem je treba samo pazit,da nikoli ne dobi moznosti vplivati na svet zunaj svojega honeypota. To pa se da z pravili dolocit.

DarkSite ::

Po moje je bistveno, da naredimo samo njeno inteligenco in ji damo neke cilje(napravi eden za človeštvo, itd.). Ne pa, da bi se tudi zavedala. Tako bi jo lahko kontrolirali.
Kakšna je meja med zavedanjem in inteligenco, sta povezani ali ne???
Vprašanje je kdo bo naredil to intelegenco in kako jo zaščitil?! Namreč, če pride v napačne roke, lahko ti osebki sprožijo čisto nekaj drugega kot singularnost še preden poženejo tapravi protokol.
To so ena taka vprašanja, kaj če, kaj če.....:\ :D

Thomas ::

Ka se tiče zavesti in inteligence.

Meni se inteligenca sama po sebi sploh ne zdi nevarna. Dopuščam pa možnost, da ko je inteligenca dovolj splošna, in pride sama v svoj scope - da je to že vse, kar zavest je. Toda tudi potem se mi inteligenca z zavestjo še ne zdi nič bolj nevarna kot prej. Šele ko jo priključimo na kakšen motiv, se potencialne nevarnosti začnejo.

Toda, ali se lahko priključi sama? Ne, če nima motiva za kaj takega. Razen kakšna random mutacija bi pa to lahko povzročila. Čeprav je switch off v takem primeru bistveno verjetnejši.

Vendar vrhovni motiv je tisto, česar nobena inteligenca ne more in noče in ne želi ... spreminjati. Ali pa to ni vrhovni motiv.

Jest ne bi zanalašč spodbujal nastanek zavesti pri AI, vendar je zavest res lahko kar stranski produkt. Emocije in motivi pa po mojem niso. To so čisto ortogonalni (neodvisni) faktorji.

Se pa zelo strinjam, da potrebujemo le rezultate, rezultate in še enkrat rezultate inteligence. Po drugi strani je pa že superinteligenca per se en tak rezultat, ki bi ga jest želel najprej imeti vdelan.





(Off/meta topic: Občasno je debata tukaj čisto na nivoju SL4.):)
Man muss immer generalisieren - Carl Jacobi

Thomas ::


Michael Anissimov:



    By the time Friendly AI accesses the web on ver own, ve will most likely be superintelligent and possess strong nanotechnology, and the information absorbed will just be a drop in the bucket, alongside the information gained by noninvasively scanning the position of every atom in all the brains on Earth. For a Friendly AI, the structural operation and synergistic relationship of the web to humans is not a threat at all, no more than a human exposed to the Internet for the first time will suddenly decide that it's ok to kill people whom she doesn't like.



(ver, ve je namesto her/his, she/he.)

No takole, to so nekako tudi moja stališča in pričakovanja. Tole se meni zdi, da je nekako tisto, na kar je treba računati pri stalnem (nekajtedenskem?) avtoizboljševanju začetnega nivoja inteligence.

:)
Man muss immer generalisieren - Carl Jacobi

_marko ::

Thomas:

Ko bi se človek naj uploadal je bilo govora, da človeško telo več ni potrebno.

Kaj pa, da bi se recimo uploadal in še naprej živel v zunanjem svetu normalno smrtno življenje?

Ali bi potem živel dve življenji hrati?, ali ...



LP marko


Thomas ::

marko

Ja, bi imel. Samo nekaj drugega bi se (se bo) zgodilo.

Načelno bi lahko delal v rudniku, kakršnega so imeli Rimljani. (Če je kdo bral Para Lagerquista, bo vedel o čem govorim. Namreč, ko glavni junak pride iz rudnika na latifundijo se mu zdi, da je prišel v Nebesa.)

No, da delaš 16 ur na dan v takem rudniku, 8 ur na dan si pa na nekih sanjskih počitnicah.

Kleč je pa ta, da se ti v rudnik ni treba več vrniti, kakor hitro si enkrat "na počitnicah". Nikoli ti ni treba nazaj. Bi vseeno šel?

Jest mislim, da samo po kakšno tebi drago stvar ali človeka. Drugega ne.

Razlika med uploadanim in tukajšnjim življenjem pa bo IMO samo še veliko večja. Ne glede, če si tukaj ravno pri kakšnem sprejemanju Viteške legije ali kaj takega. Kakor se čudno sliši - precej prepričan sem v to.

ZATO mislim, da bo Stara Zemlja hitro zapuščena.



:)
Man muss immer generalisieren - Carl Jacobi

Thomas ::

Man muss immer generalisieren - Carl Jacobi

Valentin ::

Kaj je zavest? Kako nastane ?
Ko se rodimo, so naši možgani prazni, zavest še ne obstaja. Potem se informacije skozi opazovanje ali učenje prično kopičiti, šele pri dveh do treh letih je informacij že toliko, da človek dobi osnovno predstavo o samemu sebi in prične DOJEMATI svet okrog sebe - pojavi se samozavedanje.
Zato se tudi ne spomnimo našega ranega otroštva, takrat naš jaz še ni obstajal.

Kako pa bo z AI, ki jo bomo nekoč ustvarili, bo imela zavest?
Bo tudi pri njej proces pridobivanja zavesti tako samoumeven kot pri človeku?

In bistveno vprašanje:
Kako bomo ugotovili ali je naša AI postala bitje, ki se je sposobno zavedati samega sebe?

Na kakšen način ? S kakšnimi posebnimi testi ?

Glede na njeno obsežno bazo podatkov in procesorsko moč - samo iz razgovora se to verjetno ne bo dalo.
Sploh pa če nam tega iz kakršnegakoli vzroka ne bo hotela pokazati...

:\

Thomas ::

Jest se ne bi igral in ustvarjal (antropomorfnega) Boga - sploh. Ker kaj če se nam ponesreči - in dobimo (antropomorfnega) Hudiča?

Vse kar rabimo je Stroj, katerega inteligenca je najbrž lahko *milijardokrat* tako velika kot kateregakoli človeka.

Ne vem povedati, če ima taka mašina kar avtomatično zavest ali ne, vendar motivov NIMA.

Funkcionira le kot nekakšen interaktivni TV, ali pa 3D kino z "znanstvenimi oddajami" ali pa "knjiga z recepti" ali "odgovarjalni stroj".

Ni tako razburljivo - a potem se nimamo bati česa, razen samih sebe.

Taka superinteligenca na mind interface, naredi potem *mene* tako inteligentnega. Ponotranjim jo. Ne ločim je od svojih misli, postane del mene.

Augmentation.

In kdo je nad takimi postljudmi potem?

The law. (=PROTOKOL).

Če bomo šli stopnico po stopnico naprej, se tako nimamo česa bati. Vnaprej bomo vedeli, kaj nas čaka. Smer bomo šofirali sami. Vedno inteligentnejši, modrejši ... bomo na ta način MI, v središču Singularnosti. MI in naši zakoni.


Temu bi se lahko reklo tudi Accerelated Kurzweilian scenario.


:)
Man muss immer generalisieren - Carl Jacobi

Valentin ::

Se čisto strinjam.
Veliko varneje bo da imamo nezavedni superinteligentni 'odgovarjalni stroj'.

Hm, mislim da tale moj post vseeno ni pasal v tole temo, ker sem mislil pri mojem vprašanju na nekaj drugega.

Namreč: Kako ločiti stroj, ki ima svoje reakcije in odgovore maksimalno dobro sprogramirane od stroja (človeka) z zavestjo?

In če ni razlike, ali je potem zavest sploh potrebna?
««
22 / 182
»»