» »

Protokol

Protokol

Temo vidijo: vsi
««
73 / 182
»»

nevone ::

CEV je dober kompromis med varnostjo/napredkom, Protokol pa je polarno nasprotje, ki omogoča maks. napredek z maks. rizikom.

Ali lahko tole malo utemeljiš. Ker jest ne vidim, kako in zakaj je po tvoje Protokol realno nevarnejši od CEV-a.

o+ nevone
Either we will eat the Space or Space will eat us.

Saladin ::

Ali lahko tole malo utemeljiš. Ker jest ne vidim, kako in zakaj je po tvoje Protokol realno nevarnejši od CEV-a.

Najkrajše rečeno - CEV naj bi garantiral ohranitev humanitya (človeštva z sedanjo/zelo podobno biologijo, mentaliteto in svobodo), medtem ko je v Protokolu končni cilj nekaj povsem drugega ("Trans-human")

Nadalje, CEV stremi prvo h maksimalni optimizaciji najbolj preverjenih (klasičnih) metod z ciljem maksimalnega napredka "klasičnega" človečanstva (tako da zagotovimo najboljšo podlago pri kasnejši odločitvi, kam se bomo pa sedaj razvijali in opustili klasičen substrat)
Maksimalna informiranost in izkušenost pred Paradigm shiftom.

Protokol pa že vnaprej določa točne parametre tega Paradigm shifta. Točno to hočemo in točno tako bomo to izvedli. AMpak to dela na temelju preveč neznank in ne upošteva možnosti human (ali AI) errorja. To in omenjena izguba človečanstva (vsaj v določenih primerih) naredi Protokol precej bolj rizičen in nevaren.

CEV je tako bolj primeren in varen (razen v nepričakovanih situacijah, ko enostavno nimaš več časa na voljo in je potreben takojšen Paradigm shift).

Moram pa opozorit, da govorim tukaj bolj o smernicah, kot pa strojni implementacijio CEVa (torej da AI implementira najbolje zate).
Takšen CEV se po nevarnostih približuje Protokolu, ampak je še vedno varnejši.

Čeprav puščaš AIju, da določa kar je najbolje zate, so te odločitve utemeljene na bolj "konzervativnem" izboru parametrov, ki drastično omejuje vmešavanje v človeško naravo.

Zato je CEV boljši od Protokola, Precautionary principle pa je še boljši, ker se gre za pristop, ki individualno obdela vsak problem na temelju čimveč informacij in javnega konsenza.
Je še najbolj varen, ampak je tudi najbolj zamuden in "nepraktičen"
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

Thomas ::

Pri oceni tveganja neke akcije, moraš vedno upoštevati tudi tveganje opustitve akcije.
Man muss immer generalisieren - Carl Jacobi

Saladin ::

Pri oceni tveganja neke akcije, moraš vedno upoštevati tudi tveganje opustitve akcije.

Se strinjam.

Ampak kaj (in koliko) tvegamo z odlašanjem Protokola na račun varnosti?
Da se bomo prej sami pobili z novimi tehnologijami ali z moralnim razkrojem? Da se ne bomo pravočasno umaknili z Zemlje zaradi njene neizogibne destrukcije? Alien threat?...

Tukaj štejejo samo egzistencialne nevarnosti. Eliminacija paina ali celo smrti posameznikov ne odtehta rizika totalne anihilacije, stagnacije ali morebitne degeneracije človeštva (ali njene morebitne naslednice).

Saj si pragmatik, Thomas.
Tudi če riskiraš 3/4 populacije človeštva (ali več) z odlašanjem Protokola, vseeno zavaruješ tisto ostalo četrtino ljudi. Humanity preživi.
Z implementacijo neperfektnega Protokola pa riskiraš 100% humanitya. Da pa je v sedanji fazi (tudi zgolj teoretično) neperfekten, pa je skorajšnja statistična sigurnost.

Morda najenostavnejša razlaga je, da vedno gledaš zgolj rizike in ne dobičke.
Ni važno, če nam rata razvoj v "bogove". Če so riziki previsoki - potem tega ne smemo storiti.
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

Thomas ::

Sej gremo v Singularnost, to je sedaj jasno že marsikomu. Tudi ljudem na Intelu.

"Pametni večini" seveda to ni jasno in jim še en lep čas ne bo.

Hočemo pravila za to tranzicijo, a naj se zgodi kar brez njih?

Samo to je vprašanje.
Man muss immer generalisieren - Carl Jacobi

Saladin ::

Hočemo pravila za to tranzicijo, a naj se zgodi kar brez njih?

Hočemo dodaten čas za njihovo pravilno formulacijo - to je vse.

MI kontroliramo kdaj in kako bomo vstopili v Singularnost.
Če hoče nekdo prehitevat in riskirat življenje vseh ostalih, ker se sam boji smrti, we'll - we won't let him!

Če pa je kaj takega neizogibno, bomo že prej skočili vanjo, ne boj se.
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

Thomas ::

Iluzija da imaš nekaj pod kontrolo, pa tega nimaš, je lahko pogubna.

Res ne vem, kako misliš okoli 2015 kontrolirati vse, ki bodo imeli v kleteh svoje RSOP-e. Kot ima zdaj ene 100 ljudi v kleteh naprave za fuzijo. Sicer niso energetsko pozitivne, a imajo jih.

Kakšen RSOP (rekurzivni self optimizator), pa bo "energetsko pzitiven".

Kaj hudiča misliš, da sploh lahko storiš?

fuzorji
Man muss immer generalisieren - Carl Jacobi

Saladin ::

Ko bomo prišli do točke, da bodo posamezniki lahko enostavno in neopaženo imeli doma tehnologijo, ki lahko biomehansko ali digitalno ogrozi človeštvo, potem riziki prevagnejo v korist Protokola.

Ampak kje si zdaj našel letnico 2015, mi spet ni jasno. V nobenem primeru iz te teme ne vidim kaj drugaga kot "babysteps".

Še imamo čas.
Ne le desetletje - desetletja
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

Thomas ::

Potem pa OK. Vzemi si 20 let za premislek. Se slišiva 2028.
Man muss immer generalisieren - Carl Jacobi

WarpedGone ::

>> Hočemo dodaten čas za njihovo pravilno formulacijo - to je vse

Od koga zahtevaš ta čas? Kdo ti ga sploh lahko zagotovi?
Boš izvojeval moratorij na razvoj novih procesorjev? Zamrznil raziskave novih algoritmov? Ukinil cele laboratorije na fakultetah? Boš prepovedal overclockanje procesorjev, povezovanje računalnikov v mreže? Boš prepovedal distribuirano računanje? itd?

Ta zahteva je ekvivalent ludizma. Oni z razbijanjem mašin niso ustavili industrijske revolucije. Enako ne boš s takšnimi zahtevami zaustavil informacijskega razvoja.

Lahko se le pobrigamo da te uzde (protokol) čimprej skuhamo da bojo pri roki ko beštija prvič zadiha, še predno začne tudi brcat.
Zbogom in hvala za vse ribe

Saladin ::

Od koga zahtevaš ta čas? Kdo ti ga sploh lahko zagotovi?
Boš izvojeval moratorij na razvoj novih procesorjev? Zamrznil raziskave novih algoritmov? Ukinil cele laboratorije na fakultetah? Boš prepovedal overclockanje procesorjev, povezovanje računalnikov v mreže? Boš prepovedal distribuirano računanje? itd?


Tukaj spet govorimo o kontroli napredka na egzistencialnem nivoju. Posamezne korake napredka se niti ne more niti ne sme kontrolirati. Mora pa se kontrolirat napredek z predvidljivim egzistencialnim rizikom ali sklop manjših napredkov z istim predvidljivim in neposrednim rezultatom.


Ponavljam. govor je o "predvidljivem egzistencialnem riziku"

Ali na kratko - razvoj najbolj nevarnih tehnologij se mora kontrolirat tako kot, recimo, razvoj/shranjevanje/uporaba JBK orožij.
To so veliki projekti, ki ne morejo ostati neopaženi in ki jih ni le možno, temveč jih tudi moramo strogo kontrolirati.

Drugo pa je, če lahko ogromno posameznikov na enostaven, poceni in skrit način
nekako ogrozi človeštvo in na način, ki ga ne moreš kontrolirat.
Recimo da napišejo übersposobne AI-je, da lahko sami ustvarjajo JBK in podobna orožja, da nekdo izumi tako močan eksploziv, ki ga zna celo otrok naredit in čist naključno uničit celo mesto z njim,...

Ko bo slednje postalo realna nevarnost(khmrecimokhmčezkhm20khmletkhm), potem je čas za paradigm shit.

Vi kar podajajte teorije in pišite scenarije. Resno.
Čisto vsako idejo je treba prehodno v detajle obdelat. Morda celo skonstruirat način izvedbe. In potem jih testirajte. Again and again. Pa varovalke in redundance vgrajujte. Večkrat. Pa spet testirajte.
DOKLER TO ČAS DOPUŠČA.

Z Protokolom je potrebno počakati do zadnjega možnega (predvidljivo verjetnega ) varnega trenutka.
Ne gre se tukaj za striktno za zavlačevanje - gre se za to, da ko aktiviraš Protokol, da je ta bil najboljši možen in maksimalno preverjen, glede na čas, ki je bil na voljo.

EDIT: Ker ne govorimm o detajlih, izmenično uporabljam Paradigm Shift, Upload, Singularnost ali Protokol za isto stvar. Da se ne bote v semantiko zapičli.
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

Zgodovina sprememb…

  • spremenil: Saladin ()

Jst ::

nicnevem: Še nekaj pomislekov glede CEV.

CEV zajame *vse* ljudi in iz tega extrapolira nadaljni razvoj in ga udejani. Yudowski je razmišljal, če bi morda bil potreben "The Last Judge." Le ta bi pogledal, kaj se je naračunalo, kaj se spremeni in če mu je všeč, gre razvoj naprej, če ne, pa simulacijo ponovno zalaufa. Better human, think faster. Analogija: poslušaš glasbo na kaseti in začneš ročno vrteti trak hitreje in hitreje, dokler več ne slišiš glasbe ampak samo neko cviljenje, ki je 100kratna hitrost vrtenja traku. To bo videl Last Judge. Kako naj se odloči, če niti ne razume, ker CEVova extrapolacija, nas naredi better humans who think faster and better.

To je moj pomislek glede last judge in tudi Yudowski ni nikjer o tem več razlagal.


Drugi pomislek je pa: Kaj če je več zlobe v *Sumi* človeštva, kot pa dobrega? V tem primeru gre CEV proti Horror House. Kako to preprečiti?



--

Jaz spremljam razvoj AI, AGI in hočeš-nočeš, naletim tudi na transhumanizem, singularnost, exponatni razvoj, ampak moj fokus vseeno ostaja na AI. Med tem pa naletim na različne članke, linke, ki si jih z veseljem preberem. Ta o CEV, ki si ga dal ti, mi je zanimiv, bi pa rad prebral esej, štiri leta kasneje - ta o CEV, o katerem trenutno razglabljamo, je bil napisan 2004. Me zelo zanima, kako se je spremenilo njegovo mnenje. Na raznih konferencah večinoma ponavlja, da ima on pravico zahtevati matematično dovršenost pri Self Optimization Processih - da je matematično dokazano, da stvar ne bo šla na stran-pot.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Saladin ::

Drugi pomislek je pa: Kaj če je več zlobe v *Sumi* človeštva, kot pa dobrega? V tem primeru gre CEV proti Horror House. Kako to preprečiti?


CEV je treba dopustit do neke jasne meje.
"More human" je dobra smernica, ampak samo dokler še vedno ostaneš "human".

Ko dosežeš največ na klasičnem substratu in klasični mentaliteti (ki je takrat maksimalno izkoriščena oz. zoptimirana), je čas za popolno reevaluacijo celotne situacije.

Treba se je odločit, če je "the best human You can be" najboljša izbira za prihodnjost ali če je potreben radikalen paradigm shift.

EDIT:
Ampak odgovor na to vprašanje boš vedel šele takrat, ko boš res "the best human You can be".
Danes še ne poznaš tega potenciala in nimaš objektivne podlage za odločitev, da je Protokol v vsakem primeru boljši in nujnejši.
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

Zgodovina sprememb…

  • spremenil: Saladin ()

Thomas ::

Zmagal bo najbolj eleganten od vseh izvedljivih konceptov, se meni zdi.

Maksimizacija p/p - Odin & marko svet; Odin & marko verzija Protokola, je gotovo najbolj eleganten, vprašanje samo če je izvedljiv iz političnih razlogov.

Yudkowsky-Bostrom variante so pa IMHO preveč načičkane z nepotrebnimi okraski in komplikacijami, poleg tega pa še skrivako vse preveč pasti.
Man muss immer generalisieren - Carl Jacobi

Saladin ::

Zmagal bo najbolj eleganten od vseh izvedljivih konceptov, se meni zdi.

Zgolj eleganca je hudimarsko nevaren kriterij.

"Elegantno" bi bilo "pospravit" z vsemi anomalijami.
"Elegantno" bi bilo vse skupaj poenostavit (biologijo in mentaliteto).
"Elegantno" bi bilo spravit čisto vse pod popolno kontrolo.
...
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

Thomas ::

Eno drugo eleganco imam v mislih. Enostavni koncepti so preprosto obstojnejši od izumetničenih tvorb, to je navsezadnje logično.

CEV je far too complicated, da bi ne imel polno šibkih točk. Kaj preprostega, kot je recimo Newtonska fizika ali Darwinska biologija, lepo tečeta. Oziroma drugače rečeno. Po tako simple rulzih, svet še nekako pripraviš do tega, da deluje.
Man muss immer generalisieren - Carl Jacobi

Saladin ::

CEV je far too complicated, da bi ne imel polno šibkih točk.

CEV kot avtomatiziran proces je potrebno precej bolj dodelat.

Ima pa zelo zanimiv cilj: "Best possible human" naspram "Transhuman".

Prva varijanta je že v osnovi sigurnejša - že zgolj zaradi dejstva, ker je preverjena - temelji na vsem dosedanjem človeškem izkustvu.

Tudi če povečevanje človeških sposobnosti pomeni povečevanje tako dobrih kot slabih lastnosti, vseeno s tem ustvarjaš boljše predispozicije, boljše okolje in boljše znanje, kar dokazano povečuje humanost v ljudeh in zmanjšuje kriminalnost in socialne motnje.

"Transhuman" pa je povsem nova, neznana zver. Precej močnejša, to sigurno, ampak boljša in varnejša?
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

Thomas ::

Vseeno mislim, da CEV je esencialno tako naštiman, da od human ostane nič, ali kvečjemu bore malo.

Protokol pa komot obdrži precejšnji del tistega, kar nam je drago. Lahko tudi ne, a lahko tudi ja.

CEV po moje - po definiciji ne!
Man muss immer generalisieren - Carl Jacobi

Jst ::

>Ampak odgovor na to vprašanje boš vedel šele takrat, ko boš res "the best human You can be".
>Danes še ne poznaš tega potenciala in nimaš objektivne podlage za odločitev, da je Protokol
>v vsakem primeru boljši in nujnejši.

Sploh nisem rekel, da je protokol boljši in se strinjam, da je na vprašanje "kaj je najboljše za nas, hypertuned monkeys" odvisno od znanja, ki ga imaš na voljo. Zato si jaz ne upam dajati napovedi, po kateri bo človeštvo zajadralo. Vem pa, da je v zadnjih štirih letih bilo narejenega veliko na AGI sistemih, iz več koncev in tudi iz različnih perspektiv. Glede na rečeno, jaz mislim, da znanje, ki ga lahko posreduje posamezna človeška brain arhitektura (= en posamezen človek z enimi možgani), je zelo omejeno in bo preseženo in dejansko ne bomo bili sposobni razumeti, kaj nam potencialni AI pripravlja.

Iz kakšnih perspektiv se ljudje lotevajo AGI? Trije so meni zanimivi. Pattern recognition in visual cortex in argument človeka je, da ko bo imel to orodje rešeno, bo ostalo (memory, knowladge representation, actions) izhajalo iz tega. Na prvi pogled se nisem strinjal, da je lahko ta pot sploh možna, ampak po nekaj mesečnem pretečenem času, sem spremenil mnenje, kajti vse akcije, ki jih človek naredi, izvirajo prav iz čutil in visual cortex je najbolj zapletena zadeva napram relativno enostavnih ostalih čutilih.

Ben Goertzel in njegova knjiga The Hidden Pattern, ki opisuje delovanje možganov in različnih delov (čustva, spomini,...) na način prepoznavanja vzorcev. Ta teorija delovanja možganov se poklaplja z mojo teorijo in ta knjiga je samo še potencionirala mojo samozavest, da imam prav. Novamente, Goertzelov AGI, je zgrajen ravno na podlagi tega mišljenja, čeprav na prvi pogled ni tako. Vsebuje pa MOSES, probability EA, za long term problem solving, za spomin weighted labeled hypergraph, ki je nekakšna nevronska mreža, ki se uporablja za short term problem solving. Ampak to sem povedal tako na grobo, da je v bistvu narobe.

In še zadnji, meni zelo blizu način, izvira pa iz IBM research in se je usmeril na (spet rečeno zelo na grobo in površno) dojenčke, njihove sinapse ob rojstvu in naprej do nekaj let. Zanimivost, ki so jo ugotovili, je ta, da je nevronskih povezav že ob rojstvu zelo veliko, ampak le te večinoma zamrejo (se drastično zmanjšajo) do šestega meseca starosti, nato pa spet začnejo naraščati. V povezavi s tem, pa raziskovanje najbolj efektivne metode pozabljanja.

Na te tri bi jaz stavil, da bodo igrali pomembno vlogo v prihodnosti, začenši kakšnih deset let od danes. Ni pa nujno, da bodo oblikovali prihodnost. Mislim, da bo več AI agentov, ki si bodo med sabo izmenjovali informacije in na koncu konvergirali. Zato zelo dvomim, da lahko danes postavimo napoved - protokol - kako se bodo stvari odvile. Te tri različne pristope sem naštel, ker ne verjamem, da bo prvi near-human-like-intelligence "prevzel" krmilo in potem začetek transhumanizma in singularnosti. Zato tudi mislim, da singularnost ne bo točka, ampak proces, ki ga ne bomo mogli določiti - reči: sedaj se je pa začela singularnost.

Pri tem mojem pogledu, CEV in podobne filozofije nimajo smisla. Ampak ker sem odprt za vse možnosti, jih preberem in podam svoje mnenje. Da pa jasno povem: CEV lahko uresničimo, je pa majhna verjetnost, da ga bomo.

Se pa tudi držim znanega pregovora: When facts change, I change my mind. Prevod: ko vidim kje napredek (pri AI), reevuliram svoje poglede.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Thomas ::

Zakaj mislim, da IBM ali Yudkowsky niso tisti, ki bi lahko kaj naredili? Ker so premalo inovativni. IBM ker je velika korporacija. Kdor je recimo sposoben naresti ... od tradicije neodvisen format slik, manjši kot vsi prejšnji - bo IBM zapustil in ustanovil svojo firmo. Taki ljudje so pa predpogoj - samo predpogoj - da se kaj resnega naredi. Tudi teoretiziranje do onemoglosti, brez vsakega techa, kot to počne SIAI - je premalo.

Ben Goertzel s svojimi pogledi, pa je realen kandidat, da nekaj naredi. Tudi patternski koncept je dovolj realen, da bi kaj znalo biti. Čeprav v cirkulaciji je že vsaj 10 let. Goertzlu dam mu 10% šans. Več pa tudi ne.
Man muss immer generalisieren - Carl Jacobi

Double_J ::

snow ::

En malo daljši dokument (130 strani) na temo emulacijo možgan: http://www.fhi.ox.ac.uk/Reports/2008-3....
Obdela tehnologije skeniranja, delovanja možgan, nivoje emulacij, razvoj tehnologij itd. Roadmap skratka.
Random mutation plus nonrandom cumulative natural selection - Richard Dawkins

darian ::

snow ::

Hunting for a Brainy Computer: http://bits.blogs.nytimes.com/2008/11/2...

Thomas kaj si ziher da IBM ne bo? ;)
Lahko zapusti IBM... ampak ima potem ene 1000x švohnej računalnik za poganjat gor svoje ideje.
Random mutation plus nonrandom cumulative natural selection - Richard Dawkins

Thomas ::

Kaj mislim o trudu IBM Corporation?

Mislim, da v desetletju najkasneje, bodo na ta način naredili nekaj, kar bi jaz imenoval "okleščen upload". Najmanj okleščen, morda celo neokleščen.

Vseeno pa mislim, da "cognitive computing" ni najbolj optimalna strategija. Preveč antropomorfna, za moj okus in za moje skromno mnenje. Preveč truda gre v nepotrebne arabeske. Če ima kdo problem s tem, da so "danes računalniki preveč mehanični", je to njegova zabloda. Mehaničnost je odlika, ne slabost. Celoten iskalni prostor, skozi katerega jadra človeški duh v iskanju rešitev in novotarij, bo najbrž možno veliko hitreje in bolje raziskati z motornimi barkami, neodvisnimi od muhavih vetrov.

Da se tako izrazim.
Man muss immer generalisieren - Carl Jacobi

rh^ ::

Hočemo pravila za to tranzicijo, a naj se zgodi kar brez njih?

Samo to je vprašanje.


Mene vedno bolj skrbi, da ni nobene večje debate o pravilih. Protokol je odličen primer kako bi lahko to uredili. Singularnost brez teh pravil pomeni konec človeštva.

Thomas ::

Ja ... itak se ve, da se jaz s tem strinjam. Ampak nas je precej malo, žal.

Non the less. Če bomo na tem, da bomo svoje krempeljčke še bolj iztegovali proti ultratechu ... bom sklical zasedanje Founding Fathers (in Mothers, too!) ... in bomo načrtali PROTOKOL. Pol pa kokr kdo če. Stvar bo zapečatena.

Če bo svoje krempeljčke prej tja zrinil kakšen drug - upam da bo naredil isto.

Amen.
Man muss immer generalisieren - Carl Jacobi

lymph ::

Thomas, se spomnim ko si enkrat dal link do risanke na youtube, kjer je bil zelo lepo razložen paradoks teleporta (problem treh sob), pa me zanima če imaš še vedno ta link ker ga nikjer ne najdem
"Belief is immune to counter example."

Thomas ::

Hja ... original je nekam poniknil. Moram obvestila, kamor mi agenti sporočajo interesantne reči, mau preštelat. Manj politike, več bolj relevantnih reči.

Mea culpa!
Man muss immer generalisieren - Carl Jacobi

Fave ::

@lymph: Naslov je bil To Be. Samo ga ne najdem. Če dobim javim.
My mind's a hyper tool that fixes everything.

Jst ::

And the story goes on...

StockMood.com uses advanced artificial intelligence to analyze news stories, classify their sentiment, and then measure their potential impact on a stock's price direction. StockMood.com debuted on TechCrunch 50 2008, and we're now running a Beta.

www.stockmood.com


--

On the other hand: zakaj ste nekateri prepričani, da bo prva Self Improving AI prevzela krmilo? Zgleda, da bo laufala na omejenem hardware-u, omejenih zmožnosti/performans. Vsaj v forseeable future, ne zgleda, da bo hardware naredil "multiverse" leap ahead. Dočim SW za AI se pa bo napisal. Zato jaz osebno dvomim, da bo prva AI, The AI.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Thomas ::

Pravzaprav nekako ocenjujemo, da bi morala Self Improving AI biti dovolj inovativna, da bi lahko sama izboljšala svoj hardware. In bi reklo FOOOM!

Po definiciji mi nismo tako inteligentni, da bi zgruntali kako. Ampak normalno da ne. SI AI bi pa morda to mogla. Intuicija (mau boljš ugibanje) pravi, da povsem mogoče.

Je pa seveda odprto vprašanje. Ni to 100%.
Man muss immer generalisieren - Carl Jacobi

c3p0 ::

In kaj je ta StockMood drugo, kot skupek nekih semantičnih pravil, verjetno s povezavi z Bayesom ali čim podobnim? Tehnologije stare 40 let. Dober gimmick ja, kaj druga pa ne. Če zadeva lahko res dobro predvidi gibanje delnic, zakaj jo potem sploh prodajati kot servis? Obogatijo lahko sami, brez strank.

Ko bi vedel koliko servisov za analizo stock marketa, forexa je na trgu, uporabljajo vse živo iz področja "A.I.": GA & nevronske mreže, fuzzy logika, greyboxes, nič jim ni tuje. In kdo je do zdaj obogatel? Prodajalci teh magičnih servisov in produktov! Stranke? Hardly.

Thomas: zakaj je tvoj upload vedno le še "10 let" stran?

poweroff ::

Ker bo čez 10 let še vedno enaka časovna razdalja.
sudo poweroff

Thomas ::

Upload je pravzaprav preprosta tehnologija. Nano skeniranje, najbrž še to ne, samo celično skeniranje in potem emuliranje cele kolobocije z močno mašino.

To je vse, kar upload je. Za kakšnega jastoga bo razmeroma enostaven, za človeka pa ne dosti težji.

ZATO mislim, da ni prav daleč dan, ko bodo uploadi stvarnost.

Čeprav ne mislim, da je to najboljša pot za dosego transčloveške inteligence, je precej straight forward reč. Ena dobra NMRI seansa iz bližnje bodočnosti, bi morala dati dovolj podatkov za imitacijo. Moč superračunalnikov se pa tudi lepo veča.
Man muss immer generalisieren - Carl Jacobi

Thomas ::

Večina je videla tiste modre, rdeče in ne vem kakšne še lise v možganih, posnete z NMRI-ji današnjega dne.

Večina *"ve", da to nima kakšne velike veze z njihovimi duhovnimi aktivnostmi, ki da so baje na čisto drugih nivojih.

Zato naj bi nobena re-kreacija tistega svetlikanja, magari s precej povečano resolucijo in ful 3D, na računalniku - nikakor ne pomenila, da smo "ujeli duha v stroj". To naj bi ostalo za večno nemogoče, ker da nemogoče je.

Tako gleda večina. Tudi ko jim rečeš, da se motijo, da je tisto svetlikanje, skupaj s porabo glukoze in kisika ... vse kar razmišljanje je - bodo ostali pri svojem "poduhovljenem gledišču".

Kar naj. Welcome to stay there.

Ena ozka manjšina pa misli, da je dovolj dobro emuliranje tistega dogajanja dovolj. Tudi za reševanje najtežjih problemov in vprašanj. Pospešeno. Pospešeno, pospešeno.

P.S.

Ostanite v največjem številu v varni, preudarni večini!
Man muss immer generalisieren - Carl Jacobi

Thomas ::

Kako bo nekaj oglja v škatlici posnelo, nekaj oglja v drugi škatlici pa potem reproduciralo človeški glas? Pa magari šla strela skozi, kaj šele nekaj toka iz majhnega generatorja?

Pametnemu človeku 19. stoletja je bilo _jasno_, da je to popolnoma nemogoče. So to tudi na glas povedali.

Pametnemu človeku 21. stoletja je pa jasno, da nobena računalniška emulacija dogajanja v NMRI mašini z ležečim ćlovekom notri ... ne bo nikoli poustvarilo čudeža človeškega razmišljanja.

To jasno ne gre, ter ne bo šlo. Stvari niso tako preproste! Everyman 19. in everyman 21. stoletja sta si enotna. Če bi bilo tako enostavno, bi že davno naredili. A ni!

Čudež človeškega glasu in čudež človeškega mišljenja sta igrača bogov, če ti so. Ne ljudi. Sploh pa ne na tako primitiven način.
Man muss immer generalisieren - Carl Jacobi

Double_J ::

Vprašanje je samo, če se bo to, kar naj bi bilo pa že dovolj natančno izkazalo da ni.

Samo v neskončnost pač ne bo tako.

Zgodovina sprememb…

  • spremenil: Double_J ()

Thomas ::

Seveda, jasno.

Eni so pa prepričani, da natančnost sploh nima veze. Da gremo lahko z atomsko natančnostjo, pa se bo duh vendarle nekako izmaknil.

Pravzaprav ugibam, da tako mislijo. Eni že, najbrž. Drugi mislijo, da je ta natančnost "pod Heisenbergom". Da nam kvantna nedoločenost preprečuje dovolj dobro prečitati možgane.

Ja! Tega naj se oklenejo in bodo mirni! Da je resolucija duha večja, kot je možno fizikalno sploh meriti! To! So potem na varnem.
Man muss immer generalisieren - Carl Jacobi

Jst ::

>Pravzaprav nekako ocenjujemo, da bi morala Self Improving AI biti dovolj
>inovativna, da bi lahko sama izboljšala svoj hardware. In bi reklo FOOOM!

Chain reaction, torej? Če naredi kaboom ni AI, po tvoje? Agentom v Second Life-u in agentom v ostalih MMO igrah, ki se bodo začeli pojavljati, bomo pa rekli.. kako?


--

Sago: Prav imaš, takih sistemov je mnogo. Ne veš pa, če niso mogoče nekateri zaslužili bajne vsote denarja. No, sedaj imamo javni servis, Novamente-based. Očitno je Ben s svojo idejo na dobri poti. Že nekaj let nazaj so kot byproduct izdali na novamente based tehnologiji, program, ki išče povezave med geni in raznimi bolezni ali lastnosti človeka. "Včeraj" so izdali oceno borze na podlagi analize člankov. "Danes" grejo spuščati agente v Second Life.

Jaz mislim, da so na dobri poti.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Jst ::

>Drugi mislijo, da je ta natančnost "pod Heisenbergom".

Ja, če se po kakem norem odkritju izkaže, da možgani delajo na kvantni osnovi, smo skrewed. Jaz mislim, da se to ne bo zgodilo, da je Heinsenberg "varno" v svoji domeni izven možganov.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

gzibret ::

Mislim, da je delovanje možganov na kemijskem nivoju in da ima heisenberg tukaj toliko zraven, kot ima pri povprečnem računalniku ali TV-ju.

Je pa dobra novica, saj lahko verniki svojega duha veselo tlačijo tja notri, pa sploh ne bo prišlo do konflikta s pozitivisti.
Vse je za neki dobr!

Jst ::

Agreed.

--

Zakaj je meni tako všeč novamente? Ker so nekako eni izmed redkih, kateri se udeležujejo konferenc o AI, ki imajo nekaj za pokazati.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Jst ::

Če Sago ni prebral prve strani, je vredno tole tukaj prilepiti:

Each article is individually ingested, and its sentiment assessed by natural language processing models. While the models aren't perfect, users can correct the sentiment rating produced by the system.

Mood measures how a stock’s price responds to news. When a stock is in a good Mood that means the stock price responds very favorably to good news, and has a tendency to shrug off the bad news. The opposite is true for bad Mood. The more this happens the stronger the mood in that direction gets.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Thomas ::

Chain reaction, torej?


Chain reaction, vsekakor.

Ljudje imajo težavo verjet, da bi lahko prišlo do chain reaction v atmosferi Jupitra ali v LHC, v Švici.

Če bi jim pa rekel, da lahko pride do verižne reakcije na relaciji CPU - RAM ... bi se samo prisrčno krohotali. To bi bil eden najboljših smehov v njihovem lajfu.
Man muss immer generalisieren - Carl Jacobi

l0g1t3ch ::

no če jest na svojem mlinčku brez povezave v svet zaženem najbolšo AI ji to ne bo nič pomagal. Za večno bo ostala v mojem kompu pa naj se še tako izbolšuje. Da bi si AI izboljšala svojo osnovo ji mormo potemkaj zagotoviti tudi dostop do strojev in opreme s katerim lahko naredi bolšo podlago.

c3p0 ::

Sem prebral, ja. A bi me bolj zanimala zgodbica koga, ki to uporablja, uspešno ali neuspešno, dalj časa. Ne dajem v nič zadeve, a osebno ne bi skakal do stropa in v tem videl neke AI revolucije. Me prav zanima, kako obdela tekste in kaj iz njih izlušči, kako analizira, poveže. In kako dodeli teže posameznim člankom, avtorjem, virom...

Imam nekaj denarja že od 2004 v hedge skladu, katerega izključno trguje grey-box tip programa, brez človeških intervencij (baje). Ni impresiven, a je boljši od bančne vezave. Tako da nevernik ravno nisem. :)


> Eni so pa prepričani, da natančnost sploh nima veze. Da gremo lahko z atomsko natančnostjo, pa se bo duh vendarle nekako izmaknil.

Ti verjamejo v nematerialnost "duše", in če je tako, imajo prav. Potem se bo duh izmaknil tudi na nivoju kvarkov. Bomo videli, če/ko bomo uspeli replicirat le mrtve kose mesa, ali popolne kopije. ;) A ne čez 10 let, niti čez 20 - IMO.

Smurf ::

Hmmm... ena boljših variant prihodnosti je, da ljudje postanemo hišni ljubljenčki AI-ja ne da bi se tega zavedali :).

Drugače pa mislim, da bo glede self-improving AI nastal vik in krik in bo prepovedan (ali pa vsaj močno omejen). Ljudje se še JE bojijo....

Thomas ::

Vsi politični faktorji so prepričani, da bo RSI proces pognan nekako takrat, ko bodo ladje tipa Enterprise rutinsko letale po Galaksiji, mogoče še kakšno stoletje kasneje.

Zato prepovedi ni pričakovati, vsaj ne pravočasne.

RSI bo prej naredil FOOM, preden bo en sam poslanec v EU zadevo vzel resno.
Man muss immer generalisieren - Carl Jacobi

Jst ::

Prej se mi je izmaknil "ne".

Torej, če ne pride do chain reaction oziroma če ne naredi kaboom, ni AI, po tvoje?

Težava ni verjeti, vsaj zame, ampak bolj problem umestitve v časovni okvir. Da karedi kaboom, morajo po moje biti izpoljneni določeni pogoji, ki pa se kažejo v srednjeročni prihodnosti.

Sago: Ti bi rad vedel kako zadeva deluje. Kaj pa če je konkretna zadeva že izven človeške dojemljivosti? Da dela nek čiračara, recimo da ne moreš zvedeti kako obdeluje tekst, kakšne teže jim določa,...itd, ker se je enostavno sama razvila. Ven pa daje zadovoljive odgovore. Si kdaj (po)mislil na to?
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|
««
73 / 182
»»