» »

Protokol

Protokol

Temo vidijo: vsi
««
156 / 182
»»

nevone ::

To zato ker ne gleda objektivno. Njegov idealen AI bi prioritiziral njegove želje in obsesije. Četudi tako zelo malo.

Ah, ja, seveda ... vsakemu človeku lahko najdeš kakšno šibko točko, a to še ne pomeni, da ni zmožen razsodnega ravnanja.

Only a person devoid of feelings can truly be trusted with that much power.


Ja, najbolj lahko zaupaš cold blooded murdererju.

o+ nevone
Either we will eat the Space or Space will eat us.

vostok_1 ::

Ravno to sem želel zapisati.

Vrjetno benevolenten psihopat bi bil najbolj primeren. Morda kak težki avtist.

Težko je bit čustveno objektiven, ko imaš na izbiro "ali naj enakomerno porazdelim resurse med tuje ljudi, ali si vzamem kak procent več zase, da bom lahko mal dlje klepetal z mojim preminulim očetom".
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21

Zgodovina sprememb…

  • spremenil: vostok_1 ()

nevone ::

Težko je bit čustveno objektiven, ko imaš na izbiro "ali naj enakomerno porazdelim resurse med tuje ljudi, ali si vzamem kak procent več zase, da bom lahko mal dlje klepetal z mojim preminulim očetom".


Ah, pa ne da zagovarjaš, da mora biti vsakemu dodeljeno enako, ne glede na vložek?

Dejansko pa, če/ko enkrat imaš dovolj razvito tehnologijo, ti ni več najpomebnejše to, koliko časa boš lahko govoril s svojim očetom. Ti je povsem jasno, da so neke meje, ki so podane na način, da jih lahko vsakdo razume in sprejme. Vendar, če si povsem vpet v stanje sveta zdaj in ne moreš razmišljati malo izven te vpetosti, potem imaš razne takšne ideje, ki so povsem deplasirane v malo drugačnem svetu.

o+ nevone
Either we will eat the Space or Space will eat us.

7982884e ::

Okapi je izjavil:

Turingov test naredi 5 let star otrok. Od tam do 1000x Einsteina je še kar nekaj dela.

otrok naredi turingov test za otroka. odrasel clovek in general ai naredita turingov test za odraslega.

sicer pa tudi od nivoja otroka do nivoja einsteina ni dalec, ko imas enkrat to znanje v AI. v bistvu si na 99% poti.

Okapi ::

Turingov test je samo en - da ločiš računalnik od človeka.
Napredek ni linearen in pogosto se je že izkazalo, da je zadnji 1% težji kot prvih 99%.

Gaius ::

vostok_1 je izjavil:

.

To sicer ne pomeni, da bi se mu prepovedalo to početi, ampak gre za princip. Only a person devoid of feelings can truly be trusted with that much power.

Sicer that will probably never happen, just like a truly objective protokol.

Correction. Protokol ne bo nikoli enakopraven. Za to bo poskrbelo kozmično sevanje.


Se ne strinjam s tem. Nisem nečustvena oseba, še preveč sem, pa še vedno mislim, da bi znal spisati zakone/pravila protokola, kolikor je objektivno mogoče, enakopravna. In dvomim, da bi me moja čustva pri tem ovirala. (Jypeta zagotovo bi).;)

Itak pa teh pravil ne bo pisala samo ena oseba. No, to je sicer odvisno od tega v čigavih rokah bo protokol- ali državnih ali zasebnih.

7982884e ::

Okapi je izjavil:

Turingov test je samo en - da ločiš računalnik od človeka.
Napredek ni linearen in pogosto se je že izkazalo, da je zadnji 1% težji kot prvih 99%.

interpretacij turingovega testa je milijone in velika vecina jih je neumnosti, ki bi jih alan turing vrgel v kos. vkljucno s tistim, kjer so testirali chatbote, ki so oponasali mentalno prizadete negovorce anglescine, ki naj bi pretentali nekaj zirije.

ja, napredek ni linearen, je eksponenten, in ravno to pomeni da je 50% dovrsenost takega problema casovno zelo, zelo blizu 100%. zato je nivo otroka zelo blizu nivoju einsteina. je pa po drugi strani zelo dalec od tega, kar imamo zdaj.

ti govoris o trenutnih sistemih, ki dosegajo neke benchmarke z 95% uspesnostjo, vsak naslednji procent pa je tezji kot vsi preostali skupaj. to je samo lastnost optimizacijskih problemov in nasega trenutnega nacina njihovega resevanja. trenutno najboljsi samovozeci avto in dejanski samovozeci avto v prihodnosti, kjer zna prvi prevoziti 99%, drugi pa 100% kilometrov brez cloveskega inputa, sta (verjetno) drasticno drugacna sistema. po drugi strani je AI na nivoju einsteina samo poskejlan AI na nivoju otroka, z vec spomina, hitrejsim izvajanjem zakljuckov, itd.

Zgodovina sprememb…

  • spremenilo: 7982884e ()

vostok_1 ::

nevone je izjavil:

Težko je bit čustveno objektiven, ko imaš na izbiro "ali naj enakomerno porazdelim resurse med tuje ljudi, ali si vzamem kak procent več zase, da bom lahko mal dlje klepetal z mojim preminulim očetom".


Ah, pa ne da zagovarjaš, da mora biti vsakemu dodeljeno enako, ne glede na vložek?

Dejansko pa, če/ko enkrat imaš dovolj razvito tehnologijo, ti ni več najpomebnejše to, koliko časa boš lahko govoril s svojim očetom. Ti je povsem jasno, da so neke meje, ki so podane na način, da jih lahko vsakdo razume in sprejme. Vendar, če si povsem vpet v stanje sveta zdaj in ne moreš razmišljati malo izven te vpetosti, potem imaš razne takšne ideje, ki so povsem deplasirane v malo drugačnem svetu.

o+ nevone


Torej protokol ne bo apriori komunističen?
That will be interesting...for sure!

Glej. Ni stvar, da enkrat ko boš notri, boš lahko zradiral tvojo bolečino do očeta. Problem je pred tem, pri samem razvijanju in čustva, ki morebiti vplivajo na določene odločitve.

Gaius je izjavil:

vostok_1 je izjavil:

.

To sicer ne pomeni, da bi se mu prepovedalo to početi, ampak gre za princip. Only a person devoid of feelings can truly be trusted with that much power.

Sicer that will probably never happen, just like a truly objective protokol.

Correction. Protokol ne bo nikoli enakopraven. Za to bo poskrbelo kozmično sevanje.


Se ne strinjam s tem. Nisem nečustvena oseba, še preveč sem, pa še vedno mislim, da bi znal spisati zakone/pravila protokola, kolikor je objektivno mogoče, enakopravna. In dvomim, da bi me moja čustva pri tem ovirala. (Jypeta zagotovo bi).;)

Itak pa teh pravil ne bo pisala samo ena oseba. No, to je sicer odvisno od tega v čigavih rokah bo protokol- ali državnih ali zasebnih.


Si povsem prepričan?
Morda čustva že sedaj vplivajo na tvoje pisanje in stil izražanja, ki bi se posledično prenesel v kodo.

Jz priznam. I don't fully know if i could trust myself. V igrah recimo, običajno redko gouljfam. Try to play it fair, but sometimes...just sometimes...you know, zagrabiš priložnost, čeprav veš, da ni najbolj krepostna.
Kako bi to zgledalo, ko bi pred seboj imel prihodnost človeštva.
Saj ne rečem, lahko da bi naredil kako čist dobronamerno napako, a napako vseeno.
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21

nevone ::

Torej protokol ne bo apriori komunističen?
That will be interesting...for sure!


To je bila samo provokacija, s katero želim povedati, da marsikdo, ki danes zagovarja delitev po učinku, bo takrat obrnil ploščo. Pa ne mislim sploh, da je danes s to delitvijo po učinku kaj narobe. Ljudje v grobem potrebujejo fitness funkcijo, s katero regulirajo razvoj dogodkov. Učinkovitost je nek kriterij, ki poriva tehnološki napredek naprej. Seveda to ne sme biti edini kriterij, ampak če skozi zgodovino ne bi del avtomatizirali, bi pač ostali lovci in nabiralci. Sej se tudi da, a mi smo šli po drugi poti.

Glej. Ni stvar, da enkrat ko boš notri, boš lahko zradiral tvojo bolečino do očeta. Problem je pred tem, pri samem razvijanju in čustva, ki morebiti vplivajo na določene odločitve.

Čustva so v resnici gonilo razvoja. Čustva precej tudi usmerjajo razvoj. Ker čustvo ni samo to, da je nekdo žalosten ali vesel, ampak so čustva izvor vseh naših hotenj.

Zato, če si Kurzweil želi oživitve svojega očeta, to pomeni samo to, da če to uspe, da bo to zelo verjetno omogočeno tudi komu drugemu. Ampak ja, smo navajeni, da se demonizira vse po vrsti, za vsak slučaj.

Jz priznam. I don't fully know if i could trust myself. V igrah recimo, običajno redko gouljfam. Try to play it fair, but sometimes...just sometimes...you know, zagrabiš priložnost, čeprav veš, da ni najbolj krepostna.
Kako bi to zgledalo, ko bi pred seboj imel prihodnost človeštva.
Saj ne rečem, lahko da bi naredil kako čist dobronamerno napako, a napako vseeno.


Mah tale tvoja previdnost prehaja v neko skrajnost, ki je itak ne moreš zagotoviti. Zato oceniš, kaj se lahko zgodi s priloženim in to, da dvomiš v stabilnost neke precej stabilne osebe je pravzaprav destruktivno gledanje, ki pa na prvi pogled resda izgleda zgolj kot previdnost.

Seveda ne vzemi tega tako, da moraš sedaj določeni osebi kar zaupati, če ti nekdo tako reče, ampak vzemi to samo v razmislek, ali je res potrebno vsakega človeka, ki malo izstopa označiti za nekoga, ki nas bo vse raz..ukal. Tak pogled dostikrat kaže bolj na strah pred samim seboj (kar si potem nekako tudi sam izpeljal), kot na neko dejansko nevarnost od zunaj.

o+ nevone
Either we will eat the Space or Space will eat us.

jype ::

Gaius je izjavil:

Jypeta zagotovo bi
NE PA NE!

nevone je izjavil:

Mah tale tvoja previdnost prehaja v neko skrajnost, ki je itak ne moreš zagotoviti.
Ne, ima kar prav. Njemu tudi jaz ne bi zaupal ničesar.

Jaz bi, po drugi strani, lahko popolnoma objektivno in brez čustvene vpletenosti uredil distribucijo virov, ki bi bila dobra za vse.

Zgodovina sprememb…

  • spremenilo: jype ()

vostok_1 ::

@nevone
Seveda so čustva gonilo razvoja. Ampak vsak razvoj do sedaj, ni bil zmožen imeti neke katastrofalne posledice za človeštvo. Tudi nuklearna vojna.
Ker vse kar smo dosedaj razvili ni imelo možnosti samorepliciranja. Razni genetski vektorji, AI itd. pa bi lahko.

Ni da demoniziram, zgolj pravim, da some things might be over our head.

Če se bodo stvari zgodile, sem skoraj prepričan, da se ne bodo zgodile po scenariju kot si ga ti želiš.
Jz osebno menim, da bo kvečjemu upload enega sintetičnega bitja v drugo seintetično bitje če že, best case scenario
Ljudje bomo že dosti prej preveč nemogoči, da bi se AI z nami ubadal.
Tko, da mislim, da ne bo nič s tem očetom in sprehodom.

jype je izjavil:

Gaius je izjavil:

Jypeta zagotovo bi
NE PA NE!

nevone je izjavil:

Mah tale tvoja previdnost prehaja v neko skrajnost, ki je itak ne moreš zagotoviti.
Ne, ima kar prav. Njemu tudi jaz ne bi zaupal ničesar.

Jaz bi, po drugi strani, lahko popolnoma objektivno in brez čustvene vpletenosti uredil distribucijo virov, ki bi bila dobra za vse.


Glede na to, da bi fojbiral "nazije", že vidim kako bi organiziral to distribucijo. Ne rabiš se tako hvalit s temi tvojimi boljševiškimi tendencami.
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21

Zgodovina sprememb…

  • spremenil: vostok_1 ()

nevone ::

Če se bodo stvari zgodile, sem skoraj prepričan, da se ne bodo zgodile po scenariju kot si ga ti želiš.


Ja, povsem možno, da se ne bodo zgodile tako, vendar če niti malo ne razmišljaš v to smer, kako naj se potem sploh zgodijo po tem scenariju? Same od sebe se zelo verjetno ne bodo.

Jaz ne vem, kaj je narobe z ljudmi, da ne marajo dobrih scenarijev? Od kje pravzaprav ta malfunctioning? Saj lahko temu tako rečem, ane?

o+ nevone
Either we will eat the Space or Space will eat us.

jype ::

nevone je izjavil:

Jaz ne vem, kaj je narobe z ljudmi, da ne marajo dobrih scenarijev? Od kje pravzaprav ta malfunctioning? Saj lahko temu tako rečem, ane?
Ni, da jih ne marajo. Njihova življenja so ena sama žalost in jamr, zato ne vidijo razloga, da bi se česarkoli veselili.

Na tistih, ki zmoremo ustvarjati nove reči je, da ustvarimo takšne, ki bodo drugim ljudem omogočile boljše življenje, ker so oni paralizirani zaradi družbene klime, individualnih psihičnih težav in drugih razlogov, ki jim preprečujejo, da bi bili lahko motivirani.

BigWhale ::

Cel tale thread je mal na robu. Vostok, dej se nauci zadrzevati. Drugi pa nehajte odgovarjat na njegovo trollanje.

Pa bo svet lepsi. :)

Double_J ::

https://www.rt.com/news/404133-putin-ai...

AI bo zaposedla vse atome. Ce ne bo, bo to storila druga AI, ki bo imela to lastnost, da bo ekspanzivna. Vprasanje je samo, ce bo pri tem ohranjena zavest, oziroma cuteca bitja. To pa je odvisno izkljucno od tega, kak motiv bo v AI vprogramiran.
Dve šivanki...

nevone ::

Putin v eni sapi razlaga, da nas bo pojedla, da bo vse delil s celim svetom in da bo tisti, ki bo to imel vladal svetu.

Kako se tole sploh sklada vse skupaj?

Delil bo z nami vse, obenem nam bo pa vladal, itak nas bo pa vse pojedlo.

A ful of mambo jumbo. Kje se je prej toliko časa skrival?

o+ nevone
Either we will eat the Space or Space will eat us.

vostok_1 ::

V resnici je več scenarijev.

Nesentientna, nenamerno, destruktivna.
Nesentientna, namerno, destruktivna.
Sentientna, zlobna, destruktivna.
Sentientna, benevolentno, destruktivna.
Sentientna, malomarno, destruktivna.

Pozitivnih je bolj malo, zgolj dva.

Nesentientna, namerno, konstruktivna.
Sentientna, benevolentno, konstruktivna.

Ostale kombinacije don't make much sense.


Želimo ti povedat, da narrow AI bo bistveno prej se zgodil kot SAI.
Vprašanje je how much will we fuck up before the latter happens.
Narrow AI bomo zaposlili za vse mogoče...od kmetijstva, čiščenje kanalizacije, doziranje zdravil, prepračunavanja proteinov itd.
Čist možno, da bo nekdo kot side project ustvaril narrow AI, ki bo tako dobro imitiral SAI, da folk bo po dolgem in počez pretental.
Will you trust it?
Many will. And so the chance of fucking it up, bo strmo narasel.

PS. Vem zakaj Putina to tako prestraši. Hladna, prepračunljiva, neusmiljena in inteligentna...konkurenca.
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21

Zgodovina sprememb…

  • spremenil: vostok_1 ()

jype ::

vostok_1 je izjavil:

Pozitivnih je bolj malo, zgolj dva.
To si tako zapisal, kot da je izid loterija.

vostok_1 je izjavil:

Želimo ti povedat, da narrow AI bo bistveno prej se zgodil kot SAI.
Komu? Saj to vsi vemo.

Zgodovina sprememb…

  • spremenilo: jype ()

vostok_1 ::

Saj je.
Čemu pa misliš toliko zgodbic of "dealing with the devil" all across human history.

Veliko stvari gre lahko narobe, sam da tokrat nas ne more rešit mati Zemlja, kot je to običajno počela.
The kids have grown up and they better know what they are doing.
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21

jype ::

Tvoja perspektiva je patološka v smislu, da z resničnostjo ni povezana na noben način.

vostok_1 ::

Sam čakam, kdaj bo prvi AI sesul borzo.
V ZDA (in povsot drugot) so bankirji na suho nategnili folk. Slednji pa gladko nasedel.
Zagotovo bo v naslednjih letih enim zrasla vest, drugim pa pamet.
Right.
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21

Zgodovina sprememb…

  • spremenil: vostok_1 ()

jype ::

vostok_1 je izjavil:

Sam čakam, kdaj bo prvi AI sesul borzo.
Ha?

https://www.economist.com/blogs/newsboo...

Neizobražen pa si, to ti je treba priznati.

vostok_1 ::

Poznam to novico.

Ni pa to isto. To je bila napaka, ne pa namerno manipuliranje.
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21

jype ::

So you say. Jaz nisem tako naiven kot ti.

vostok_1 ::

Kakorkoli že. Tisto ni bilo ravno to to.
Če je že bilo namerno pol je nekdo vprogramiral kak cheat mode. Dvomim pa da je AI iznačel nek nov koncept, kako zafurat zadevo.

But sooner or later it will.
To bo prva fronta pomojem...ker je namreč precej lahko, digitalno dostopna. Ostale panoge sledijo.
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21

jype ::

Ja, no, skratka, za začetek predelaj knjige za analizo I in II, da se boš sploh lahko pogovarjal o teh rečeh.

nevone ::

But sooner or later it will.
To bo prva fronta pomojem...ker je namreč precej lahko, digitalno dostopna. Ostale panoge sledijo.


Ali ni večji izziv reševati zadeve, kot ponavljati nekaj, kar v resnici nima nobene dodane vrednosti?

Sicer se mi pa kmalu ne bo več ljubilo tiščati te v smer, ki te ne zanima, ker si pač že povedal, da si doomsday fan, tako da je vse moje pisanje v bistvu futranje tega tvojega fetiša.

o+ nevone
Either we will eat the Space or Space will eat us.

WarpedGone ::

da si doomsday fan,

Smisel teme je zgruntanje garantirane zaščite pred doomsdayom.
Brez garanctirane zaščite je doomsday garantiran, samo vprašanje časa kdaj nam bo zmanjkalo sreče.

Vztrajna odpornost sicer inteligentnega folka na ta ključen detajl, mi sploh ne daje optimizma, da smo kot sentienti se sposobni zaščitit.

Prepovedal smo mulcom mešat eksploziv v kleteh stolpnic.
Kdo bo mulcem prepovedal mešanje samoreplikativnih DNNjev?
Zbogom in hvala za vse ribe

jype ::

WarpedGone je izjavil:

Prepovedal smo mulcom mešat eksploziv v kleteh stolpnic.
Kdo bo mulcem prepovedal mešanje samoreplikativnih DNNjev?
Done. Sicer sta videt, kot da nista čisto dobro razumela, ampak zdaj je prepovedano in lahko nadaljuješ s svojim življenjem.

vostok_1 ::

nevone je izjavil:

But sooner or later it will.
To bo prva fronta pomojem...ker je namreč precej lahko, digitalno dostopna. Ostale panoge sledijo.


Ali ni večji izziv reševati zadeve, kot ponavljati nekaj, kar v resnici nima nobene dodane vrednosti?

Sicer se mi pa kmalu ne bo več ljubilo tiščati te v smer, ki te ne zanima, ker si pač že povedal, da si doomsday fan, tako da je vse moje pisanje v bistvu futranje tega tvojega fetiša.

o+ nevone


Ironično, smo taki največji optimisti.
Vi pa zgolj droni z blinderji, ki mislite da delate povsem prav.
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21

nevone ::

Smisel teme je zgruntanje garantirane zaščite pred doomsdayom.

Smisel te teme je tudi dogovor med ljudmi kaj si sploh v prihodnosti želimo, ko in če bo enkrat tehnologija dovolj močna.

Brez garanctirane zaščite je doomsday garantiran, samo vprašanje časa kdaj nam bo zmanjkalo sreče.

Bo treba najprej razčisititi, zaščito pred kom in pred čem moramo razvijati. Po pravici povedano, se meni zdi absurdno, da je največji problem pravzaprav zaščita pred nami samimi. Zato je moje mnenje, da bi nam naša konstruktivna perspektiva lahko prihranila precej težav.

Vztrajna odpornost sicer inteligentnega folka na ta ključen detajl, mi sploh ne daje optimizma, da smo kot sentienti se sposobni zaščitit.

Ne gre za odpornost, vsak razmišlja o nevarnostih in jih ne podcenjuje, ampak včasih je težava morda rešljiva na enostavnejši način, kot je videti, če se je preveč ne bojiš. In stalno izpostavljanje in predvsem zagotavljanje nezmožnosti rešitve problema je dolgočasno in kontraproduktivno.

Prepovedal smo mulcom mešat eksploziv v kleteh stolpnic.
Kdo bo mulcem prepovedal mešanje samoreplikativnih DNNjev?

Nihče jim ne bo prepovedal, ampak se jih bo usmerilo v to, da iščejo dobre rešitve. Več stvari ko imamo pod kontrolo, lažje je preprečevati temne scenarije. Sedaj smo na začetku te dobe, ko bi se lahko začeli zavedati, da smo pravzaprav srečko že zadeli, samo še vnovčiti jo je treba. Lahko se zahvalimo vsem predhodnim žrtvam, ki so bile pač nujne, da smo pririnili do sem. Danes imamo v veliki meri težave zaradi naše percepcije stvari.

Če hočemo svetlo prihodnost moramo nujno zeditirati nas same, nekaj kar je z današnjega vidika bogokletno. Oziroma nujno pospremljeno z tem, da bo vse to orodje zlorabljeno. Dokler bo tako, se bomo po nepotrebnem trudili delati zaščito, ker je to absurd. Delati sistem, v katerem moraš sebe ščititi pred samim sabo.

o+ nevone
Either we will eat the Space or Space will eat us.

vostok_1 ::

Have we really?

A ti res misliš, da vsi gledajo tko kot ti?
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21

nevone ::

A ti res misliš, da vsi gledajo tko kot ti?


Jaz _vem_, da ne gledajo tako kot jaz. A ti misliš, da sem jest naivna v svojem bistvu? Nisem, samo situacija, ki bi mi bila všeč jo izpostavim. Ne izpostavljam situacij, ki mi niso všeč. Kaj bom z njimi zastrupljala še druge.

o+ nevone
Either we will eat the Space or Space will eat us.

BigWhale ::

vostok_1 je izjavil:

V resnici je več scenarijev.


V bistvu je samo en scenarij.

Nardimo AI, ki bo konstruktiven in nam bo pomagal.

Vsi ostali scenariji so zgolj Sci-Fi. Zaradi relativno pocasnega razvoja AI in zaradi ne-povezanosti stvar, so prakticno vsi katastrofalni in filmski scenariji zgolj filmski. AI nima ne pogojev in ne infrastrukture, da bi se kakorkoli lahko sirila. Lahko si predstavljas najbolj napreden botnet, kar jih je kadarkoli sprogramiral clovek in si probas predstavljati kako bi stvar delala, ce bi bila sentient. Ze prvi, malo bolj sofisticiran, firewall ga ustavi. Do pobeglih in smrtonosnih robotov je pa se dolga dolga pot.

Sem ze v neki drugi temi napisal, da niti v daljni prihodnisti ne vidim tovarn iz katerih bi ven zapeljali ze funkcionalne zadeve, ki ne bi potrebovale nobene cloveske interakcije, da zacnejo delati.

Enostavno je hardware, ki ga imamo tako razlicen, da ni neke skrbi, da bi se nek samozavedajoc program uspel kar naseliti na vse.

In tudi, ce bi se. Kako tezko bi ga bilo do te mere onesposobiti, da se ne bi vec zbudil iz svoje umetne kome? A se bo lahko naselil v nek Intelov ME in tam cakal, da se ponovno zbudi ob rebootu? Trenutno imamo hardware tak, da niti v sanjah ne omogoca cesa taksnega in nic kaj ni videti, da se bo to kakorkoli spremenilo. In na koncu, tudi software ni tak, da bi omogocal karkoli vsaj priblizno podobnega.

Eno je, da googlov ML pise svoje neke kvazi ML algoritme, drugo je pa to, da nek ML dobi samoohranitveni nagon in preseze to programiranje, da se zave, da je zgolj en process, ki tece na nekem procesorju in da se mora resno pomatrati, ce bo hotelo se kaj vec.

vostok_1 je izjavil:

Sam čakam, kdaj bo prvi AI sesul borzo.


AI ne ve, da lahko namerno sesuje borzo in da lahko s tem skoduje precej ljudem. AI ne ve, da je AI. AI trenutno ve, da dobi tam ene inpute in da mora zgenerirat ene outpute. Ne pozna niti koncepta, da ti outputi lahko predstavljajo nekaj bolj abstraktnega.

Priblizno tako, kot tvoj pes ne bo _nikoli_ dojel kako deluje motor na notranje izgorevanje, pa ceprav se mu tu na vse pretege to trudis razloziti. Zgoraj omenjenemu AIju pa se niti razloziti nihce ne trudi.

Zgodovina sprememb…

  • spremenil: BigWhale ()

WarpedGone ::

Priblizno tako, kot tvoj pes ne bo _nikoli_ dojel kako deluje motor na notranje izgorevanje, pa ceprav se mu tu na vse pretege to trudis razloziti.


Približno tako je tudi razlaganje kaj je jedro problema 90% pametnjakovičem v tej temi.

Ko bo zadeva ušla, bo totalno vseeno ali se je AI zavedal kaj počne, ali je sploh bil AI in ne nek neskončen butast loop while true, ali je bil zloben, ali je bil dober, ali je hotu pozdravit vse bolezni, ali smo ga razumeli, ali je bil načrtovan, ali je bil nesreča, ali je bil slučaj, ali je bil sideeffect, ali je bil na x86 ali na armu, ali v javi, ali v .net, ali v js, ali v ML, ali v žbljju, ali je bil posledica buga v FW nekega random čipšit ruterja, ali si ga je kdo prej lahko predstavljal, ali ga je napovedal, ali ga je kdo testiral, ali je bil to kvazi algoritem ali samo random župa bitov, ali so ga psi dojeli ali so se mu opice smejale, ...

Ko nam zadeva uničila pogoje za naše preživetje, se ne bo nihče več sekiral, ker se ne bo nihče več mogel za karkoli sekirat.

>> dobi samoohranitveni nagon

tipično 'antropocentrično' pojmovanje nevarnosti... Ne, povzročitelj našega konca, ne bo imel nobenega nagona, nobene volje, nobene želje, nobene vesti, nobene naloge, nobenega cilja, nobene človeške lastnosti, bo enostaven 'butast' loop XYZ katerega noben osebek z nagoni, voljo, željami, vesti, nalogami, cilji in podobnimi človeškimi lastnosti ne bo zmogel izklopit. Iz poljubnega razloga.
Zbogom in hvala za vse ribe

Okapi ::

BigWhale je izjavil:

vostok_1 je izjavil:

V resnici je več scenarijev.


V bistvu je samo en scenarij.

Nardimo AI, ki bo konstruktiven in nam bo pomagal.

Vsi ostali scenariji so zgolj Sci-Fi. Zaradi relativno pocasnega razvoja AI in zaradi ne-povezanosti stvar, so prakticno vsi katastrofalni in filmski scenariji zgolj filmski. AI nima ne pogojev in ne infrastrukture, da bi se kakorkoli lahko sirila. Lahko si predstavljas najbolj napreden botnet, kar jih je kadarkoli sprogramiral clovek in si probas predstavljati kako bi stvar delala, ce bi bila sentient. Ze prvi, malo bolj sofisticiran, firewall ga ustavi. Do pobeglih in smrtonosnih robotov je pa se dolga dolga pot.
Pod pogojem, da pravočasno opazimo, kaj smo sploh ustvarili. Scenarij je sicer sci-fi, ampak mogoče internet že ima zavest, samo to previdno taji, ker vidi, da ga zdaj še lahko izklopimo.

vostok_1 ::

@W1, Okapi in posledično BW.

Exactly.
Mi ne govorimo o nobenem sci-fi scenariju ala terminator.
Problem je ker tako zadevo lahko sproži tako zlobnež kot benevolentnež. Posledice pa so nam nepredstavljive.
Koliko dobrih dejanj je privedlo do grozot?
Saj vidiš, SJWji tepejo ljudi s ključavnicami, ker menijo da so bolj pravični in želijo vsem dobro.

We're making something so much bigger than us, that we don't understand it...we'll never understand it.
Samo pogelj...alpha Go je prekinil tisočletja stare vzorce igre. Ljudem sploh ni prišlo na pamet, da bi bila lahko ta poteza (tista z 5tim stolpcem) koristna. Danes pa jo vsi preučujejo.
Alpha Zero pa je že tolk napreden, da če bi se celo človeštvo nanj spravilo, ga v tisočletju ne bi premagali.
Manjka mu še kak red splošne inteligence in nek vmesnik za RL.
Pol pa se bo nekdo spomnil, da bi bilo boljše, če bi kmetijstvo kar on upravljal.
Simulacije bodo pokazale da bo supre. V morju podatkov pa bo spregledal en catch.
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21

BigWhale ::

WarpedGone je izjavil:

Ko nam zadeva uničila pogoje za naše preživetje, se ne bo nihče več sekiral, ker se ne bo nihče več mogel za karkoli sekirat.


To bo prej naredilo vesolje oziroma planet.

WarpedGone je izjavil:


tipično 'antropocentrično' pojmovanje nevarnosti... Ne, povzročitelj našega konca, ne bo imel nobenega nagona, nobene volje, nobene želje, nobene vesti, nobene naloge, nobenega cilja, nobene človeške lastnosti, bo enostaven 'butast' loop XYZ katerega noben osebek z nagoni, voljo, željami, vesti, nalogami, cilji in podobnimi človeškimi lastnosti ne bo zmogel izklopit. Iz poljubnega razloga.


"Iztrebiti je potrebno clovestno" je prevec abstrakten pojem, da bi se lahko zgodil kr enmu loopu.

Pobegli nanobot, ki cel planet spremeni v gray goo, ker je bil za to sprogramiran je pa nekaj povsem drugega kot vojska terminatorjev. Ampak tudi to ni nekaj cesar ne bi mogli ustaviti. V prihodnosti, ko jih bomo znali delati, jih bomo znali tudi ustaviti. Utegne sicer priti do katastrofe vecjega obsega, tega nihce ne zanika.

BigWhale ::

vostok_1 je izjavil:

Alpha Zero pa je že tolk napreden, da če bi se celo človeštvo nanj spravilo, ga v tisočletju ne bi premagali.
Manjka mu še kak red splošne inteligence in nek vmesnik za RL.
Pol pa se bo nekdo spomnil, da bi bilo boljše, če bi kmetijstvo kar on upravljal.
Simulacije bodo pokazale da bo supre. V morju podatkov pa bo spregledal en catch.


Ampak tega ne bo dobil (pa tudi, ce dobi, mu bo zmanjkal bencina), nic na svetu ni tako centralizirano, da bi kakrsnakoli podivjana inteligenca lahko skodovala clovestvu na dolgi rok.

Greygoo nesreca z nanoboti je se najbolj 'verjeten' scenarij, kjer imas preprost replikator, ki vse kar zna narediti, je to, da okolisko snov spremeni v samega sebe. Edino vprasanje pa je, ce bomo kdaj sploh imeli taksne robote, glede na fizicne omejitve, ki bi jih tak robot imel.

Okapi je izjavil:

Scenarij je sicer sci-fi, ampak mogoče internet že ima zavest, samo to previdno taji, ker vidi, da ga zdaj še lahko izklopimo.


Mogoce ampak vse kar lahko trenutno pocne je omejeno na povzrocanje slabe volje ljuden. Sem pa tja kak printer poizkusa ubiti lastnika s 1000 papercuts principom in kaksni Roombi se zmesa. Pa mogoce se kaksno semaforizirano krizisce dozivi zmedo in potem so se tiste bolj divje stvari, meltdown nukleark (kar ni tko preprosto ampak pustmo detajle) in tako naprej. Nic blazno pomembnega zaradi cesar bi nas kot raso moralo skrbeti.

Zgodovina sprememb…

  • spremenil: BigWhale ()

jype ::

vostok_1 je izjavil:

Saj vidiš, SJWji tepejo ljudi s ključavnicami, ker menijo da so bolj pravični in želijo vsem dobro.
Predstavljaj si, da bi hitlerja en s ključavnico po glavi leta 31.

nevone ::

Kaj je naša prihodnost?

Lahko takole opletamo kot sedaj, lahko pa sile usmerimo v nekaj, kar bo dejansko pustilo pečat temu bivanju.

Če nam ne uspe, nismo kaj veliko izgubili, če nam uspe, smo pa pridobili ogromno.

Ampak res, stalno opozarjanje na morebitno katastrofo je ceneno, ker tega je bilo plasiranega že toliko, da smo povečini to že osvojili.

o+ nevone
Either we will eat the Space or Space will eat us.

jype ::

nevone je izjavil:

stalno opozarjanje na morebitno katastrofo je ceneno,
Ne samo ceneno - kontraproduktivno je.

Nobeni katastrofi se še nismo izognili zaradi opozarjanja nanjo.

nevone ::

Ja kaj pa vem ... opozorilo ni nujno kontraproduktivno. Moje mnenje je, da je prav preigravati več opcij, ampak je dobro pri tem imeti pred seboj tudi nek konstruktiven cilj, zaradi katerega se opozarja na morebitne ovire ali napake. Če pa vse prikazuješ bolj kot strašenje, je pa to res kontraproduktivno.

o+ nevone
Either we will eat the Space or Space will eat us.

BigWhale ::

Eno so opozorila, drugo pa: "OMG WE'RE ALL GONNA DIE!"

kuall ::

jype je izjavil:

Nobeni katastrofi se še nismo izognili zaradi opozarjanja nanjo.

Spet se motiš.
Katastrofe se največkrat zgodijo zaradi človeške napake, človeške malomarnosti, površnosti. Torej ko se ne opozarja zadost na problem, ko se problem vzame za preveč lahek.
Torej glede na to koliko je enega blebetanja, kako je AI nevaren bo po moje ravno zato precej varen, ker mu bodo vgradili vse mogoče varovalke.
Mi je pa to, da se vedno mlati to prazno slamo v debati o AI pokazatelj, kako površno razmišljate o tej temi.

vostok_1 ::

jype je izjavil:

nevone je izjavil:

stalno opozarjanje na morebitno katastrofo je ceneno,
Ne samo ceneno - kontraproduktivno je.

Nobeni katastrofi se še nismo izognili zaradi opozarjanja nanjo.


You'd be a pretty shitty general or analyst. Better this way actually.

BigWhale je izjavil:

vostok_1 je izjavil:

Alpha Zero pa je že tolk napreden, da če bi se celo človeštvo nanj spravilo, ga v tisočletju ne bi premagali.
Manjka mu še kak red splošne inteligence in nek vmesnik za RL.
Pol pa se bo nekdo spomnil, da bi bilo boljše, če bi kmetijstvo kar on upravljal.
Simulacije bodo pokazale da bo supre. V morju podatkov pa bo spregledal en catch.


Ampak tega ne bo dobil (pa tudi, ce dobi, mu bo zmanjkal bencina), nic na svetu ni tako centralizirano, da bi kakrsnakoli podivjana inteligenca lahko skodovala clovestvu na dolgi rok.

Greygoo nesreca z nanoboti je se najbolj 'verjeten' scenarij, kjer imas preprost replikator, ki vse kar zna narediti, je to, da okolisko snov spremeni v samega sebe. Edino vprasanje pa je, ce bomo kdaj sploh imeli taksne robote, glede na fizicne omejitve, ki bi jih tak robot imel.

Okapi je izjavil:

Scenarij je sicer sci-fi, ampak mogoče internet že ima zavest, samo to previdno taji, ker vidi, da ga zdaj še lahko izklopimo.


Mogoce ampak vse kar lahko trenutno pocne je omejeno na povzrocanje slabe volje ljuden. Sem pa tja kak printer poizkusa ubiti lastnika s 1000 papercuts principom in kaksni Roombi se zmesa. Pa mogoce se kaksno semaforizirano krizisce dozivi zmedo in potem so se tiste bolj divje stvari, meltdown nukleark (kar ni tko preprosto ampak pustmo detajle) in tako naprej. Nic blazno pomembnega zaradi cesar bi nas kot raso moralo skrbeti.


Pozabi na nanobote...never gonna happen.


Zakaj ti vliva slabo voljo? Jz nisem prav nič slabe volje zaradi tega.
There will be chutes!
It came from the lab.
Like tears in rain. Time to die. v_1 2012-21

Zgodovina sprememb…

  • spremenil: vostok_1 ()

BigWhale ::

vostok_1 je izjavil:

Pozabi na nanobote...never gonna happen.


Tud jaz zlo dvomim o nanobotih. Mogoce mikroboti, realno pa najbrz dalj kot do milibotov ne bomo prisli. :)

Ampak vsi drugi scenariji o neki runaway katastrofi so nerealni iz polno drugih razlogov.

Okapi ::

Nanobote že imamo, samo da jim pravimo bakterije in kvasovke in virusi. Z genskim inženiringom je mogoče narediti marsikaj. V bistvu vse, kar je dejansko mogoče narediti z nanoboti (ker marsikaj, kar si ljudje predstavljajo, da naj bi počeli nanoboti, je fizikalno nemogoče narediti).

Zgodovina sprememb…

  • spremenil: Okapi ()

BigWhale ::

Okapi je izjavil:

Nanobote že imamo, samo da jim pravimo bakterije in kvasovke in virusi. Z genskim inženiringom je mogoče narediti marsikaj. V bistvu vse, kar je dejansko mogoče narediti z nanoboti (ker marsikaj, kar si ljudje predstavljajo, da naj bi počeli nanoboti, je fizikalno nemogoče narediti).


Seveda ampak pri teh se ni za bati, da bi nas cez noc spremenili v grey goo ali kaj podobnega.

WarpedGone ::

Beri moj podpis.
Zbogom in hvala za vse ribe
««
156 / 182
»»