» »

Protokol

Protokol

Temo vidijo: vsi
««
118 / 182
»»

gzibret ::

Prosim, ostanite na topicu. Debata o tem, kaj je Hipokrates predpisoval za zdravljenje glavobola, sigurno ne spada v to kategorijo.

> Jaz mislim, da je AI še tako oddaljen, da je sedaj o varnosti razpravljati povsem nesmiselno in celo kontraproduktivno (če bi kdo to jemal preveč resno in bi se zato razvoj upočasnil).

AI je tukaj in sedaj. Je že med nami, hočeš-nočeš.

Zadeve, za katere so še pred 15 leti govorili, da računalnik ne bo nikoli znal narediti, se danes poganjajo v enostavnih majčkenih napravicah (recimo mobilnih telefonih).
Vse je za neki dobr!

donfilipo ::

Hipokrates je vse skupaj začel;(( Dobro kakšen ovinek za primero, tudi ni treba takoj ven vreč. Ni pa seveda tudi nobene posebne škode.
Ker na drugi strani, sam takoj kresneš v razpotje:)

AI o primarno katerem danes govori 'singularnost' in 'transhumanizem', ni AI v smislu Johna McCarhtya: 'umetnost, znanost in inženiring inteligentnih mašin'. Tu govorimo o 'mašini', ki sama popravi svojo izvorno kodo, in si celo da poboljšati hardware, z namenom pohitriti, izboljšati in narediti svojo kalkulacijo učinkovitejšo. Tu pa se zadeve zapletejo...in postanejo obenem tudi zanimive in nevarne, 'daleko beyond' napredka računalništva in informatike, ki ga pravzaprav nihče ne zanika.
In times of Universal Deceit, telling the truth
becomes revolutionary act. Orwell

Thomas ::

Da itak zdej ne bo nič, še en lep cajt, ker bo zato poskrbela dobra vila ... ni omembe vredna intelektualna pozicija in kdor jo zagovarja, naj jo kar.

Vendar eudamon pa pravi, da bi rad nek input, po katerem bi lahko naredil update, da Early Singularity je kaj verjetnejša kot neznatno verjetna.

Če bi jaz kaj takega vedel, bi najbrž to že ali prej povedal, ali pa še naprej molčal. Ne samo jaz, tudi kdo drug. Zato pričakovati od mene konkretne nasvete, kaj narediti, da bo Singularnost pred 2020 ... ni lih pametno. Če kaj konkretnega vem, ne bom rekel nič. Če nič konkretnega ne vem, ne bom rekel nič.

Lahko pa povem kaj splošnega. Mogoče bom v naslednjem postu.
Man muss immer generalisieren - Carl Jacobi

gardener ::

Thomas, s tistim kar si povedal včeraj, sva malce zašla na meta-nivo. S tem seveda ni nič narobe, saj razmislek o tem, kako razmišljati o časovnem okviru Singularnosti in kakšne napake se lahko prikradejo vanj, še vedno vpliva na našo oceno. Vseeno pa je na začetku bolje ostati na objektnem nivoju, kjer se npr. tehta kakovost današnjih teorij splošne inteligence in mnenja posameznikov kot so Peter Norvig, Goertzel in drugi strokovnjaki z AI področja itd. Vendar če imaš kak drug dober meta-argument, well, I'm all ears.

V končni fazi gre vedno za poskus odgovoriti na vprašanje "why do I believe what I believe?", in glede na to, da tvoja prepričanja govorijo o visoki možnosti za Early Singularity (ES), bi bilo fino, če bi podal kak (meta ali object-level, vseeno) razlog za to oceno. Če tega ne moreš storiti, ker gre za produkt tvoje intuicije... to sicer ne pomeni, da je tvoje prepričanje nujno neutemeljeno, vseeno pa bi ga bilo dobro označiti za sumljivega dokler iz intuicije ne uspeš iztisniti eksplicitnih argumentov - in ti so tisto, kar me zanima.

O moji neznantni verjetnosti ES: sicer je za kvantifikacijo tule prezgodaj, ampak vseeno, samo za občutek bi dejal, da pripisujem tej možnosti kak % verjetnosti ali raje nekoliko manj (vse do nekje 1/1000). Torej nikakor ne v rangu p("evolucijska teorija je napačna") ali p("magija obstaja"), vseeno pa ne v območju ~5% ali ~10%, kjer verjetnosti že postanejo zaznavno velike.
"I Ain't Been Dropping No Eaves, Sir." Samwise Gamgee

gardener ::

@Okapi
Niso vsa mnenja ustvarjena enaka - nekatera so pravilnejša od drugih in ker gre tule za vprašanje o tem, kako bi bilo dobro ravnati v primeru FAI raziskav, je normativno merilo bayesova teorija odločanja. Ker racionalno ne moreš pojavu AI v roku nekaj desetletij pripisati verjetnosti enake 0 - niti zanemarljivo majhne, saj gre za relativno preprosto hipotezo - je pričakovana korist FAI raziskav še vedno ogromna, saj so posledice v primeru uspeha dobre v kolosalnem smislu in v nasprotnem primeru - če ne uspemo razrešiti problema prijaznosti - v enakem smislu slabe.

Na eni strani lahko pozabimo na bolezni, staranje, neprostovoljno umiranje, odpravljeni bi bili globoki problemi našega življenja v visoko suboptimalnem vesolju... (za boljši občutek si oglej Fun Theory in pomisli na to, kakšen svet bi bilo mogoče skonstruirati na osnovi principov opisanih v njej); na drugi strani pa leži uničenje človeštva in pot k dolgočasnemu vesolju brez kakršnekoli vrednosti (npr. napolnjenim s sponkami za papir).

Ker je pri FAI problemu potrebno razrešiti globoka konceptualna - in ne le tehnološka ali v ožjem smislu znanstvena - vprašanja, bi bilo dobro, če bi s tem začeli že pred stoletjem ali več v preteklosti, tudi če bi bile možnosti za kakršenkoli uspeh majhne. Danes je tako že skrajni čas, da se resno lotimo problema in utemeljitev za to ne izhaja iz prepričanja, da je AI najbrž že zelo blizu - dovolj je že to, da ne vemo prav dobro kako blizu je in se hkrati zavedamo težavnosti problema in koliko časa pogosto zahtevajo konceptualni preboji in razvoj nove matematike.
"I Ain't Been Dropping No Eaves, Sir." Samwise Gamgee

.:noir:. ::

Mene malo srbi trditev, da je motiv tisti, ki določa outcome between FAI & EAI. Me ni preprical. Je najti morda kje kaj novejsega glede tega argumenta? Zna kdo tu z enim ali par stavki objasnit?

.:noir:. ::

Thomas, ti vem da verjames da je motiv ultimate game setter...?

Thomas ::

@eudaemon

Najbrž se strinjaš, da ES je lahko pogubna ali nepogubna. Da je nevtralna, ti tako ne verjameš. No ni važno, kakršnakoli že - šteje.

Če gledamo prostor vseh možnih singularnosti, za katero je treba najmanj efforta da se zgodi - in kako kompleksna je?

Nekdo, ki najde nekaj zelo enostavnega - naprimer celične avtomate. Požene evolucijo med njimi in pride do transhumane inteligence.

Vendar ta, ki to naredi, ni neumen. Ne sproži kar Conway life v neki linearni memoriji in čaka da Sonce ugasne, pa rezultata še ni. Recimo, da najprej poišče takšna pravila, ki hitro naredijo evolucijo netrivialno v smislu kompleksnosti, v nasprotju s Conway life. Memorijo pa (programsko) delinearizira.

Kako bo pa našel hitre evolverje? Well, lahko bi jih gojil znotraj digitalne evolucije ...

Kako bi pa vedel, kakšna mora biti? Well .. lahko bi ...

Vidiš kam pes taco moli? Dovolj iznajdljiv človek ali team, pride hitro tja, kjer ni bil še nihče, s svojimi načrti in razmišljanji.

Kot je reku pesnik (Ciril Zlobec).

Nešteto ciljev je pred nami,
neštete so poti ki k njim drže ..


Pesnik, je pesnik. Ni jih nešteto. Vendar se Singularnost (taka ali drugačna) lahko najbrž sproži iz milijona konfiguracij in do vsake take je mnogo poti.

Kdo pa pravi, da so vse težke in dolge? Kdo pravi da ni "vertikalne rošade", o kateri zdaj nihče (javno) ne govori?
Man muss immer generalisieren - Carl Jacobi

Zgodovina sprememb…

  • spremenil: Thomas ()

Okapi ::

Kdo pa pravi, da so vse težke in dolge?
Če ne bi bile težke in dolge, bi bila že tu.

Katero stvar, ki so jo izumili v zadnjih 50 letih, bi lahko izumili že pred recimo 200 leti, če bi se le kdo spomnil nanjo?

O.

Thomas ::

Teleskop. Leče so valjali po rokah stoletja prej, treba jih je bilo dati samo v cev, pa jih ni noben.

Mehanske telegrafe bi lahko imeli že Inki in Rimljani, pa so "raje" tekali ali jahali konje.

Heimlichov manever, reševanje dušečega se s hrano.

Koleščke na kovčke, so imeli "raje" izvoščke in nosače prtljage.

Na diske 20 let nazaj niso pisali tipa, števila glav, plošč ... Če nisi vedu ... si bil lahko doomed z diskom.

Ob ognju so posedali milijone let, preden so opazli možnost balona na topel zrak.

Bicikle bi lahko imeli že Rimljani.

Jadralna padala pa že tudi 1000 let.

Tega je precej, še več je še zdaj neizumljenega. Nikoli pomišljenega na to.
Man muss immer generalisieren - Carl Jacobi

Okapi ::

Vprašal sem, kaj so takega izumili v zadnjih 50 letih, ne kaj bi lahko izumili v antiki, pa niso.

Bolj kot znanost in tehnologija napreduje, manj je "lahkih in kratkih" poti do česarkoli novega. Inteligenca, umetna ali naravna, je IMHO tako zapletena, da "lahke in kratke" poti do nje ni, samo težke in dolge.

O.

Thomas ::

Sem povedal Heimnlichov manever je iz 1974, lahko bi bil pa iz 3000 B.C. Vsaj.

To je samo en primer preproste zadeve velikega pomena, ki ni nikomur padla na misel, zelo dolgo časa.
Man muss immer generalisieren - Carl Jacobi

Saladin ::

Moj cent:

Klasično evolucijo (digitalno ali biološko) in "slow singularity" še nekako razumemo in lahko na temelju njih delamo dobre napovedi. Kakšnih velikih in nenapovedanih egzistencialnih rizikov tukaj ni za pričakovati (najverjetneje) in ni potrebe za neko paniko - razvoj mora iti naprej.

"Fast" singularity na temelju SAI in podobnih avtonomnih, samoizboljšajočih se sistemov pa praltično še ne poznamo in ne vemo kaj, kako in kako hitro so le ti česa sposobni. To je res velika bližnjica napredka ampak obenem "neznana zver" kot temu pravim. Temu fast pristopu je potrebno posvetiti največjo pozornost - še najbolj pa varnemu okolju za njegov razvoj.

Čisto možno, da bo kak mulc v garaži spogramiral kakšent tak "seed AI" - najverjetneje pa se bo obenem požviužgal oz. zanemaril nevarnost kaj lahko tak program naredi brez vajeti.
Večje institucije bi ga morale prehiteti in to prvo z varnim okoljem za tak sistem in potem z eksperimnentiranjem znotraj njega. Brez varovalk pri fast singularity lahko hitro pride do kakih grey goo ali Skynet scenarijev.
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"

Thomas ::

Se zelo strinjam s Saladinom, oziroma duhom tega kar je rekel. Delati si utvaro, da je "stena tako debela, da noben zapornik ne more uiti", se je že 1000 krat pokazalo za kratkovidno. Pa ljudje še vedno razmišljajo po starem. Celo tisti, ki zase trdijo da so profesionalni paranoiki, so lagodni in sproščeni.

Misliti, kako nobeden ni dovolj brihten, da bi naredil kakšen Quick Singularity, je presojanje na podlagi lastnega mentalnega okolja, ki lastne ideje (trenutno še) nima.

Na tem forumu se množično razumemo na računalniške zadeve, tudi na software in na algoritme. Mamo hude znalce (brez ironije) o insertion algoritmu. Moramo jih imet, na ustreznem faxu se te zadeve pegla v nedogled. Predavajo to eni inteligentni ljudje celo življenje in pišejo znanstvene članke na to temo.

Vseeno. Vržem jaz zadevo zadnjič v Critticall - najprimitivnejša spodobna AI - in kaj dobim? Bom še tule objavil:

one=0;
jm=0;
i=1;
while (i<n) {
    temp1=tab[jm];
    one=i;
    temp2=tab[one];
    while (temp1>temp2) {
        tab[jm]=temp2;
        tab[one]=temp1;
        if (jm==zero) {
            break;
        }
        one=jm;
        jm--;
        temp1=tab[jm];
    }
    jm=i;
    i++;
}


Seveda, zdej bo kakšnemu udarla psihologija ven in ne bo vidu razlike. Hehe .. ga bomo hitro zatolkli.

Poanta je seveda ta, da AI je huda stvar, če je le minimalno spodobna. Minimalno!
Man muss immer generalisieren - Carl Jacobi

poweroff ::

Okapi je izjavil:

Radioaktivnosti ne bi odkrili niti dneva prej, jedrskih central tudi ne bi imeli prej in tudi Hirošime in Nagasakija debate iz sredine 19. stoletja ne bi preprečile.

To je pa vprašanje. Morda bi takrat že obstajal splošen konsenz (kot ga imamo danes), da jedrskega napada na civilno mesto ne sme biti.
sudo poweroff

AtaStrudl ::

Sem malo razmisljal o razliki med vecino in "hitrimi" transhumanisti...

Mislim, da se vsi strinjamo, da govorimo o "pragovnem" pojavu, kjer nas ze mala kvantitativna razlika pahne v cisto nov svet. N. pr. ce je ojacenje v zanki 0.9999 ne bo nihala, ce je pa 1.0001, pa bo, in bo amplituda zelo hitro dosegla fizikalno mejo.
Pri AI bi lahko govorili o "Self Improvement Gain", SIG. Ce ima neka inteligenca SIG=1.1, lahko naredi novo inteligenco, 10% pametnejso od sebe. Za "vzlet" ocitno rabimo SIG>1.

Zdaj pa k razliki:

VECINA meni, da je metrika inteligence nekako enodimenzionalna, merilo je nek skalar, kot recimo IQ, SIG pa je neka (monotono rastoca) funkcija tega IQ.
Dva od zakljuckov, sledecih iz tega bi bila:

1. ce je tocka SIG=1 tako visoko na IQ lestvici (recimo 300), da je noben Zemljan ne presega, adijo singularnost. No, morda ce z genetskimi tehnikami sfriziramo mozgane potomcev preko te meje. Vsekakor se desetletja...

2. Edina pot do SIG>1 vodi preko lestvice "human type" inteligenc. Nase masince bo treba mukotrpno riniti preko nivojev idiota, tepcka, povprecneza... itd, preko tocke SIG=1, ko bodo koncno lahko poskrbele zase. Ker je bil do sedaj napredek masin po tej lestvici relativno pocasen, singularnosti se ne bo tako kmalu.

HITRI TRANSHUMANISTI pa menijo, da je metrika inteligence vecdimenzionalna, in gradient SIG ni nujno vzporeden z IQ osjo. Morda je celo pravokoten nanjo. Morda obstaja vec (nepovezanih) podrocij SIG>1. Morda je projekcija nekaterih od teh na IQ os precej nizko. V tem primeru so nekateri obstojeci sistemi lahko ze zelo blizu kateremu od teh SIG>1 otockov, in lahko vsak cas vzletijo...

Thomas ::

Ata je zadevo očitno zmožen gledati s trezno glavo. Če tako, potem tako, sicer pa tako in tako. Bi človek mislil, da je to obvezni intelektualni default, ampak ni. Ne med transhumanisti, ne ned humanisti, ne med terani in nikjer. Razen med dobrimi misleci, seveda. Se bom trudil biti na njegovem nivoju.

Ko smo mističnost inteligence pustili za sabo, je tudi njeno "linearnost" težko zagovarjati kot obvezno. Monty Halla je najprej prav razumela ženska z najvišjim izmerjenim IQ v zgodovini. Potem je pa to razumevanje počasi in mukoma prodiralo navzdol. So bile resne bariere tam okoli 140 in dol do 120 je vprašanje, če je prišlo povsod, še desetletja kasneje.

Po drugi strani, pa golob, z IQ ne vem koliko, hitro poštudira, da mora zamenjati izbiro, ko mu za nekimi, prvič neizbranimi vratci, pokažejo kamenček in ne koruze.

Primerov te večdimenzionalnosti inteligence je še veliko. Zanimiv indic. Kot je rekel Yvain na LW - Priorem Mutamus Ex Novis Testimonium Proirje menjamo na podlagi novih pričevanj. Goloba bi mi ne spustili niti v posebno šolo, pa vseeno takoj vidi, kar je intelektualna elita človeštva imela precej težav, da je sprevidela. Šimpanzi isto. Jih jemljemo kot zelo zaostalo in neumno žlahto, ponavadi po pravici, ampak nekatere njihove intelektualne sposobnosti so ćloveku nedosegljive in nepojmljive. Podobno je s sloni in zlasti z računalniki, se reče programi, ki tečejo na njih.

Tako da Priorja, ki sliši na ime "Rektor katedre za Aerodinamiko, bo najprej izdelal letalo", bi morali ubiti kot psa, že davno.
Man muss immer generalisieren - Carl Jacobi

Odin ::

Seveda, zdej bo kakšnemu udarla psihologija ven in ne bo vidu razlike. Hehe .. ga bomo hitro zatolkli.
Vidim razliko, a mi ni jasno kako bi ta sort bil hitrejsi kot recimo prvi ki sem ga nasel na netu:

void insertion_sort(int x[],int length) {
    int key,i;
    for(int j=1;j<length;j++) {
        key=x[j];
        i=j-1;
        while(x[i]>key && i>=0) {
            x[i+1]=x[i];
            i--;
        }
        x[i+1]=key;
    }
}

Koliko sem ugotovil, prides v notranji loop istokrat v obeh primerih, a hkrati se mi zdi ta "if (jm==zero) break;" v tvoji kodi kr potraten in se bi upal stavit, da v povprecju rabi vec casa za sortanje. Bom jutri stestiral obe kodi kako se odrezeti pri sortiranju 10,000 elementov in bom javil.

Thomas ::

Gledano algoritemsko, je manj read+writes kot pri osnovni veriji. Okoli 20%. Kaj pa naredi kompajler iz tega, je pa druga reč. Bom naredil assemblerski verziji obeh algoritmov s podrobnim opisom branja, pisanja in primerjanja.

Pri 10,000 elementih pa ne vem kako se obnaša, ker insertion sort niti ni namenjen več kot za kakšnih 10 ali 20 elementov in je bilo tudi zevoluirano v rangu od 1 do 20.

No, vseeno daj te svoje teste najprej gor, IMHO je reč kar pomembna.
Man muss immer generalisieren - Carl Jacobi

gardener ::

@.:noir:.
Mene malo srbi trditev, da je motiv tisti, ki določa outcome between FAI & EAI. Me ni preprical. Je najti morda kje kaj novejsega glede tega argumenta? Zna kdo tu z enim ali par stavki objasnit?

Ok, zakaj pa ne... :)

V modelu optimizacijskega procesa je zajeto vse kar je pomembnega pri našem intuitivnem dojemanju inteligence - vsak AI je torej nek o.p.; takšen proces izbira dejanja tako, da usmerja prihodnost v smeri svojih preferenc; če je njegova moč zelo velika, bo zlahka uspel doseči svoje cilje in s tem določil podobo prihodnjega sveta; vsebina preferenc (oz. motivi o.p.) tako določa kako se bodo stvari v končni fazi izšle...
"I Ain't Been Dropping No Eaves, Sir." Samwise Gamgee

Zgodovina sprememb…

  • spremenilo: gardener ()

gardener ::

@Thomas
Najbrž se strinjaš, da ES je lahko pogubna ali nepogubna. Da je nevtralna, ti tako ne verjameš.

Drži. Transhumana inteligenca ima v vsakem primeru ogromen vpliv na svet in neke nevtralnosti tule ni za pričakovati.

Vendar se Singularnost (taka ali drugačna) lahko najbrž sproži iz milijona konfiguracij in do vsake take je mnogo poti.

Mind design space je ogromen, enako velja za podprostor, kjer se nahajajo AI designi s potencialom, da relativno hitro presežejo nivo človeške inteligence... kar res pomeni, da je *hipotetičnih* možnosti za sprožitev Singularnosti zelo veliko.

Še mnogo več poti pa je takšnih, ki ne vodijo do ničesar pretresljivega - v najboljšem primeru do ozko specializiranih inteligenc kakršen je Deep Blue (ali kakršne je, z eno izjemo, izoblikovala evolucija), pogosteje pa le v napol propadle projekte s katerimi je posejana zgodovina AI področja.

Kljub obilju poti do Singularnosti je tudi vprašljivo, koliko izmed teh je sploh realistično izvedljivih v recimo tem stoletju. Celotna informacijska infrastruktura, od strojne opreme do nabora algoritmov, ki so nam na voljo, namreč prinaša določene omejitve nad izvedljive AI designe. Širok spekter možnih AI designov npr. ni skalabilen na arhitekturah kakršne poznamo; pri bolj nenavadnih AI pa pridejo v igro še druge ovire, povezane z omejitvami našega razuma...

Vse to se sliši zelo abstraktno, ampak point je naslednji: stojimo pred ogromnim št. različnih poti, večina katerih ne vodi nikamor; marsikatere izmed teh, 'izdajalskih' poti na prvi (in tudi drugi) pogled izgledajo sila obetavno in s tem zavedejo mnoge, da zapravijo leta na programiranju, ki ne vodi do splošne inteligence; izmed tistih redkih poti, ki dejansko vodijo skozi labirint, jih najbrž mnogo zahteva izjemno težavno izumljanje novih algoritmov, nekatere pa so ljudem preprosto nedosegljive; med preostalimi, izvedljivimi, po vsej verjetnosti res obstaja tudi nekaj takšnih, ki niso pretirano težavne v smislu iznajdbe novih algoritmov in raznih konceptualnih prebojev, vendar kaj ko se nahajajo v silni goščavi nemogočih-ali-zelo-težavnih poti...

Teza hitre Singularnosti tako govori o tem, da bo neki skupini uspelo v tem ogromen labirintu najti tisto izjemno redko, lahko pot - da jim bo uspela serija pravilnih odločitev, vse od visoko nivojskega začetka, do končnih podrobnosti implementacije, pri čemer je tako zelo lahko zaiti s prave poti - in če se ozreš nanjo s te perspektive, se možnosti za kaj takega zdijo sila majhne...

Misliti, kako nobeden ni dovolj brihten, da bi naredil kakšen Quick Singularity, je presojanje na podlagi lastnega mentalnega okolja, ki lastne ideje (trenutno še) nima.

Dejansko gre bolj za to, da mnogi, precej brihtni posamezniki delajo na svojih AGI designih, vendar med vsemi temi ni niti enega, kateremu bi pripisal več kot delček procenta možnosti za zgodnji uspeh. Še največji potencial nosi Novamente/OpenCog sistem (ali pa morda Bitphase, čeprav nisem čisto na tekočem, ali se razvoj na njem sploh še izvaja), samo celo pri tem je nedavno eden izmed programerjev omenil, da si ne delajo utvar o tem, da imajo zaenkrat v rokah le delček sestavljanke, igračko, na kateri bo potrebno opraviti še ogromno dela, da bo imela kakršnekoli možnost za takeoff.

Glede Critticalla: gre za tool-level AI, takorekoč kolo za razum, ki je z obilo pomoči programerja sposoben reševati manjše probleme. Impresivno orodje, ampak daleč od splošne AI.
"I Ain't Been Dropping No Eaves, Sir." Samwise Gamgee

gardener ::

@Saladin:
Klasično evolucijo (digitalno ali biološko) in "slow singularity" še nekako razumemo in lahko na temelju njih delamo dobre napovedi. Kakšnih velikih in nenapovedanih egzistencialnih rizikov tukaj ni za pričakovati...

Tudi če z evolucijskimi metodami počasi potisnemo AI v transhumano področje inteligence, to ne prinaša nekega zagotovila, da bomo s tem lažje obdržali vajeti v svojih rokah - v resnici velja celo obratno. Ravno iz poznavanja dinamike evolucije sledi, da bi takšna AI skoraj zagotovo bila neprijazna in tako za nas usodna.
"I Ain't Been Dropping No Eaves, Sir." Samwise Gamgee

nevone ::

Glede Critticalla: gre za tool-level AI, takorekoč kolo za razum, ki je z obilo pomoči programerja sposoben reševati manjše probleme. Impresivno orodje, ampak daleč od splošne AI.


To je sicer res. Critticall seveda ni AI, o kateri sanjamo. Ampak je pa povsem možno, da je sam evolucijski princip, po katerem deluje dovolj dober, da na podlagi tega taka AI nastane.

Če pogledamo naravno evolucijo, je sposobna kreirat nove stvari. Samo ta evolucija kot jo poznamo, je počasna in nima jasnih motivov, ampak se pač dogaja.

Če to "naravno" evolucijo bolj precizno usmeriš in dovolj pospešiš, lahko to pripelje do zanimivih rezultatov.

Ker razlika med "tvojim" in "našim" pogledom je v resnici samo v tem, da ti misliš, da je varneje prepustiti razvoj tistim, ki delajo po naravni evoluciji. Nevarno je v resnici oboje. Pa tudi digitalna evolucija bazira na naravni.

o+ nevone

Ravno iz poznavanja dinamike evolucije sledi, da bi takšna AI skoraj zagotovo bila neprijazna in tako za nas usodna.


Sej ni zdej, da bi evoluciji pustili prosto pot. Temu je tudi namenjena ta tema.

o+ nevone
Either we will eat the Space or Space will eat us.

Zgodovina sprememb…

  • spremenila: nevone ()

gardener ::

Ampak je pa povsem možno, da je sam evolucijski princip, po katerem deluje dovolj dober, da na podlagi tega taka AI nastane.

Kuhanje algoritmov, kot to počenja Critticall, pri neki realno dostopni računski moči ne more pripeljati do splošne AI. Seveda pa najverjetneje obstaja kaka druga, posebej zvita evolucijsko navdahnjena metoda, kjer to ne drži, ampak najti takšno metodo... to je pač nekaj drugega kot reči "evolucijski pristop ima dobre možnosti za uspeh".

(Malce za hec si lahko potemtakem tudi sam zamislim svoj AI design, ki bo gotovo deloval: izberem si kako drugo izmed populacijskih lokalnih optimizacijskih metod, npr. firefly algoritem, ki naj se izvaja nad množico nevronskih mrež in nekatere izmed teh naj upravljajo s parametri tega algoritma. Bi kdo investiral kak zlatnik ali dva v moj pristop, ki očitno v eni odločni potezi razreši problem splošne AI? ;))

Ena izmed navad, ki sem se jih sčasoma navzel, je, da obravnavam celo natančne specifikacije AI designov do katerih se je nekdo dokopal z 'ugibanjem' - za katerimi torej ne stojijo jekleni argumenti - kot "skoraj gotovo ne bo delovalo". Kadar ugibaš, in se pravilni rezultat nahaja v velikem prostoru možnosti, se boš pač zmotil. ("evolucijski pristop" očitno ne prileze niti do nivoja potrebne natančnosti - seveda ne pričakujem, da bi tule objavila celotno specifikacijo, just saying...)

Samo ta evolucija kot jo poznamo, je počasna in nima jasnih motivov, ampak se pač dogaja.

Njen 'motiv' je maksimizacija inkluzivnega genetskega fitnesa, res pa ni kaj prida hitra. Sem že omenil, da je evolucija izjemno butast optimizacijski proces (kar ne bi smelo biti nikakršno presenečenje, saj gre za prvi takšen proces v našem vesolju)? :)

Ker razlika med "tvojim" in "našim" pogledom je v resnici samo v tem, da ti misliš, da je varneje prepustiti razvoj tistim, ki delajo po naravni evoluciji. Nevarno je v resnici oboje. Pa tudi digitalna evolucija bazira na naravni.

Hm... tegale ne razumem najbolje - bi morda malce pojasnila?

Sam vidim razliko med svojim pogledom in tistimi, ki zagovarjate (?) evolucijske metode kot način za razvoj AI v tem, da (a) bi takšen pristop zelo težko deloval in (b) vodi k unFriendly AI in s tem k naši pogubi.

"Uporabimo evolucijo" se pogosto uporablja kot izgovor za izbiro poti, po kateri lahko pridemo do AI, brez da bi nam bilo potrebno razumeti inteligenco; in brez takšnega razumevanja... kakšne možnosti misliš da imamo, da nam uspe ustvariti kaj prijaznega?

Sej ni zdej, da bi evoluciji pustili prosto pot. Temu je tudi namenjena ta tema.

Se morda motim v tem, da s Thomasom zagovarjata idejo "AGI skozi evolucijske metode"?
"I Ain't Been Dropping No Eaves, Sir." Samwise Gamgee

nevone ::

"Uporabimo evolucijo" se pogosto uporablja kot izgovor za izbiro poti, po kateri lahko pridemo do AI, brez da bi nam bilo potrebno razumeti inteligenco; in brez takšnega razumevanja... kakšne možnosti misliš da imamo, da nam uspe ustvariti kaj prijaznega?


Kako boš pa vedel, da razumeš inteligenco? In kako lahko trdiš, da je z evolucijskim principom ne moreš razlagati?

Se morda motim v tem, da s Thomasom zagovarjata idejo "AGI skozi evolucijske metode"?

Jest ne mislim, da je s tem, ko uvedeš evolucijsko metodo vse rešeno. Skoraj gotovo jo je potrebno kombinirat še s čim, če zaradi drugega ne, zato da si pomagaš nastaviti kar najboljšo fitness funkcijo, kateri naj bi EA sledil.

Eno je res. Če hočeš dognati nekaj novega, ni dovolj da dobro povežeš že znano, ampak je ključno to, da uvedeš nove elemente, kar je osnova EA.

Človek do novih elementov tudi pride naključno, nakar jih je sposoben obravnavati le majhno peščico. Večino jih zavrne kot neprespektivnih zato, ker se mu tekom razvoja oblikuje struktura miselnih elementov, ki so že preizkušeni. Nove pa počasi dodaja, tako da jih tudi preizkuša. En del inteligence prav gotovo bazira na EA.

o+ nevone
Either we will eat the Space or Space will eat us.

_Enterprise_ ::

Thomas je izjavil:

Monty Halla je najprej prav razumela ženska z najvišjim izmerjenim IQ v zgodovini.
dobr no, monty hall pa lahko vsak kmet razume, če se mu razloži. una ženska je zgolj popularizirala to uganko. pomojem se tapravi geniji obračajo v grobu, ko so tole slišali

je pa tista ženska vsaj toliko pametna, da ji cifra njenega IQja ne pomeni kaj dosti in IQja nima za merilec inteligence, to ji dam.
Nase masince bo treba mukotrpno riniti preko nivojev idiota, tepcka, povprecneza... itd, preko tocke SIG=1
ko maš enkrat inteligenco zelo glupega človeka po človešhih standardih, recimo po IQ, je najlažja stvar, da iz tega narediš nekaj z IQ nad 300. pač mu vneseš več globokega znanja, kar pomeni globlje povezave med informacijami. en faktor IQja so tudi te povezave - pri človeku lahko gre to samo do neke mere, pri računalniku pa skorej ni omejitev.

Zgodovina sprememb…

nevone ::

dobr no, monty hall pa lahko vsak kmet razume, če se mu razloži. una ženska je zgolj popularizirala to uganko. pomojem se tapravi geniji obračajo v grobu, ko so tole slišali


Slabo poznaš. Vsi so jo napadali, da nima pojma. Sedaj, ko je to sprejeto se je lahko delat pametnega.

o+ nevone
Either we will eat the Space or Space will eat us.

Okapi ::

in IQja nima za merilec inteligence, to ji dam.
Sem ravno hotel pripomnit, da kdor ima IQ za verodostojno merilo inteligence, se do AI verjetno ne bo nikoli dokopal>:D

O.

_Enterprise_ ::

nevone je izjavil:

Slabo poznaš. Vsi so jo napadali, da nima pojma. Sedaj, ko je to sprejeto se je lahko delat pametnega.
glej, to z "vsemi" je urbani mit. verjetno je res dobila par pisem matematikov, ki so zadevo z napačne strani gledali, ampak ona ni izumila tega problema. ljudje so z zdravo pametjo rešili že neprimerljivo težje probleme, pa niso rabili astronomskih IQjev. nevem, no, sam mal drugače gledaš na situacijo, recimo vzameš izračunane verjetnosti že takoj iz začetka, ko stojiš pred vrati, pa je problem rešen, ne rabiš nujno za tako razsvetljenje znanje nekoga, ki je to že premislil.

nevone ::

glej, to z "vsemi" je urbani mit. verjetno je res dobila par pisem matematikov, ki so zadevo z napačne strani gledali, ampak ona ni izumila tega problema.


Ona je nanj opozorila in ga tudi rešila. Dokler ni ona izpostavila tega problema, je bilo uradno stališče takšno, da je verjetnost 50%.

Kako pa gledate na IQ je pa vaš problem in me v tem kontekstu niti ne zanima.

o+ nevone
Either we will eat the Space or Space will eat us.

gardener ::

@nevone
Kako boš pa vedel, da razumeš inteligenco? In kako lahko trdiš, da je z evolucijskim principom ne moreš razlagati?

Skozi evolucijske oči je to kar počnemo ljudje magija. Principi po katerih deluje naš razum so nekaj povsem drugega od evolucijske preprostosti in ko nam uspe poiskati te principe in jih umestiti v splošnejšo teorijo inteligence, well, then we're done. Skoraj, no - manjka še Friendly del inteligence in pozitivna Singularnost. :)

Kar se tiče "kako veš, da nekaj res razumeš?"... zakaj meniš, da je Yudkowsky vložil toliko časa v brušenje svojih veščin racionalnosti? Kje leži prvotni namen njegove A Technical Explanation of Technical Explanation? Če želiš razrešiti tako zagoneten problem kot je pojasniti inteligenco in vedeti, kdaj ti je to tudi res uspelo - in nisi le podal še enega skrivnostnega odgovora na skrivnostno vprašanje kot je npr. "evolucija" ali "emergenca" - potem ti ne preostane kaj dosti drugega, kot da najprej poiščeš principe, ki vladajo dobrim razlagam in posvetiš mnogo časa študiju racionalnosti...

Jest ne mislim, da je s tem, ko uvedeš evolucijsko metodo vse rešeno.

Fino. +1 AGI-theory točka zate. :)

Človek do novih elementov tudi pride naključno, nakar jih je sposoben obravnavati le majhno peščico. ... En del inteligence prav gotovo bazira na EA.

Kaj naj rečem... to skoraj gotovo ne drži. Ni vse kar diši po selekciji evolucija in ni vse kar diši po naključnih mutacijah res naključno, niti mutacija; peščica generacij ni dovolj, da evolucija ustvari omembe vredno kompleksnost in nič ne bi bilo narobe, če bi si prebrala višje omenjeni Yudkowskyev esej in morda še The Virtue of Narrowness. Evolucija je specifična oblika optimizacije (in poleg tega ni nekaj binarnega - mogoče jo je kvantificirati/meriti) in vkolikor misliš jemati vsak proces, kjer se nad nekimi elementi izvaja selekcija, za evolucijo, si zašla s prave poti.


@AtaStrudl
S tem, da je kateri izmed današnjih sistemov že blizu takeoff točke, se sicer ne strinjam, vsekakor pa si podal odličen point o večdimenzionalnosti metrike inteligence. Česa daljšega zdajle ne utegnem, tako da bi omenil le, da sam spadam v drugi tabor, ki meni, da obstaja sistem s takeoff potencialom in *manjšim* naborom sposobnosti kot jih imamo ljudje. Ne potrebujemo torej nujno šibko-transhumane (splošne) inteligence za sprožitev Singularnosti - zadostuje že specifično izbrana množica domen na katerih mora sistem izkazati dovolj visoko kompetenco. Očitno se s tem uvrščam med "hitre" transhumaniste. :)
"I Ain't Been Dropping No Eaves, Sir." Samwise Gamgee

nevone ::

http://query.nytimes.com/gst/fullpage.h...

Tukaj si preberite, kako goreče so ji nasprotovali in kdo vse so bili ti nasprotniki.

o+ nevone
Either we will eat the Space or Space will eat us.

nevone ::

Evolucija je specifična oblika optimizacije (in poleg tega ni nekaj binarnega - mogoče jo je kvantificirati/meriti) in vkolikor misliš jemati vsak proces, kjer se nad nekimi elementi izvaja selekcija, za evolucijo, si zašla s prave poti.


Ne, ni vsaka selekcija evolucija. Evolucija je poskušanje (naključno ali ne niti ni pomembno), ki teče vzporedno s selekcijo. Selekcija je pa ključna, če veš kaj hočeš. Če ne veš, potem še selekcijo prepustiš poskušanju. Ampak če ne želiš spustiti vse iz svojih rok, potem moraš nek vrhoven princip selekcij definirati, sicer greš zares povsem v neznano in lahko tudi nevarno.

o+ nevone
Either we will eat the Space or Space will eat us.

Okapi ::

, je bilo uradno stališče takšno, da je verjetnost 50%.
Čigavo uradno stališče? To je problem, ki ga lahko rešiš s srednješolskim znanjem statistike.

O.

nevone ::

Čigavo uradno stališče?


Stališče t.i. stroke.

o+ nevone
Either we will eat the Space or Space will eat us.

Okapi ::

Stališče t.i. stroke.
Objavljeno kje točno? Ali sprejeto na katerem matematičnem/statističnem kongresu?

O.

nevone ::

http://query.nytimes.com/gst/fullpage.h...


Tukaj piše, kakšno stališče je zavzela t.i. stroka.

o+ nevone
Either we will eat the Space or Space will eat us.

Thomas ::

Ma kaj se sploh oglašaš Okapi, sej nimaš pojma o tem. Vsaj link preberi, pa spij kakšen čaj!
Man muss immer generalisieren - Carl Jacobi

Double_J ::

A ti si ga prebral?
Dve šivanki...

Okapi ::

Tukaj piše, kakšno stališče je zavzela t.i. stroka.
Ne vem, od kje si to pobrala. To je stara logično/statistična uganka, in od vsega začetka je matematikom jasno, kakšna je pravilna rešitev.

O.

Zgodovina sprememb…

  • spremenil: Okapi ()

gardener ::

@nevone
Če ne veš, potem še selekcijo prepustiš poskušanju. Ampak če ne želiš spustiti vse iz svojih rok, potem moraš nek vrhoven princip selekcij definirati, sicer greš zares povsem v neznano in lahko tudi nevarno.

Če pozabiš na selekcijo, si zapustil objem evolucije in skočil med naključne procese katerih optimizacijska moč je nična, tako kot tudi nevarnost, ki naj bi nam pretila z njihove strani (razen če gre za sisteme planetarne velikosti, ampak tudi pri teh me ne bi kaj prida skrbelo).

Kakorkoli že, kar sem prej želel povedati je med drugim to, da gre pri evoluciji za specifičen koncept, ki ga ne gre uporabljati kar vsepovprek. Tako kot ločujemo med mravljami in termiti, moramo znati ločevati tudi med evolucijo in katerim izmed drugih optimizacijskih procesov. Poleg podobnosti je potrebno videti tudi razlike in te so v primeru evolucije in ljudi ogromne. Če se ti kategorije začenjajo zlivati skupaj, iz tega sledi le zmeda in razumevanje inteligence tako postaja vse bolj oddaljeno...

(Se samo meni zdi, da je prepir okoli Monty-Hallovega problema in vos Savantove 'malce' nesmiseln?)
"I Ain't Been Dropping No Eaves, Sir." Samwise Gamgee

Okapi ::

Se samo meni zdi, da je prepir okoli Monty-Hallovega problema in vos Savantove 'malce' nesmiseln?
Sam kot tak je seveda samo prepucavanje. Ampak v osnovi pa zadeva Thomasovo trditev:
Ko smo mističnost inteligence pustili za sabo, je tudi njeno "linearnost" težko zagovarjati kot obvezno.
Kar utemelji s primerom:
Monty Halla je najprej prav razumela ženska z najvišjim izmerjenim IQ v zgodovini. Potem je pa to razumevanje počasi in mukoma prodiralo navzdol. So bile resne bariere tam okoli 140 in dol do 120 je vprašanje, če je prišlo povsod, še desetletja kasneje.
Primer preprosto ne drži.

O.

gardener ::

Aha... z "nelinearnostjo" se drugače strinjam tudi sam.

Ideja je sila preprosta: pokrajina optimizacijskih procesov je zelo razgibana in povsem naravno je, da v njej najdemo takšne z različnimi šibkimi in močnimi stranmi, tudi če je njihova splošna inteligenca (kot neko teoretično povprečje preko-domenske učinkovite optimizacije) približno enaka.

Nekaj te raznolikosti je vidne že pri ljudeh, ki se specializirajo za različna področja, mnogo več pa je najdemo pri ostalih živalih - bobri obvladujejo gradnjo jezov, klopi krajo krvi in ptice hitro premagovanje velikih razdalj. Na povsem nov nivo pa bomo skočili s snovanjem AI sistemov (deloma smo to že storili z narrow AI sistemi, kakršni so npr. igralci šaha), ker s tem stopimo izven področja evolucijsko zasnovanih razumov...

Relevantnost te ideje tule izhaja iz vprašanja, kakšen je minimalni nabor sposobnosti, ki jih mora imeti AI, da je zmožna rekurzivne samo-izboljšave?

Nekateri menimo, da obstajajo dobre možnosti za to, da ne potrebuje takšne splošnosti kot jo izkazuje človeška inteligenca, temveč je dovolj primerno visoka kompetenca v neki manjši, nekoliko drugačni množici domen.
"I Ain't Been Dropping No Eaves, Sir." Samwise Gamgee

Okapi ::

Nekateri menimo, da obstajajo dobre možnosti za to, da ne potrebuje takšne splošnosti kot jo izkazuje človeška inteligenca,
Na osnovi česa to sklepate, oziroma ali imate kakšen konkreten primer, ki bi kazal na to možnost?

Sicer pa bi rekel, da minimalno moraš vedeti, kaj je inteligenca, oziroma kako deluje, če jo hočeš samo-izboljšati. Če tega ne veš, se lahko zanašaš samo na naključne mutacije in evolucijo, čakaš in upaš na najboljše;-)

O.

Thomas ::

Nekateri menimo, da obstajajo dobre možnosti za to, da ne potrebuje takšne splošnosti kot jo izkazuje človeška inteligenca, temveč je dovolj primerno visoka kompetenca v neki manjši, nekoliko drugačni množici domen.


Seveda. In ta množica domen morda vsebuje nekaj relativno preprosto dosegljivih spretnosti. V tem primeru, je ES realna opcija. Realna opcija je tudi, da so že danes ljudje na Zemlji, ki pravzaprav poznajo te kompetence.
Man muss immer generalisieren - Carl Jacobi

Thomas ::

Matematiki (eden največjih, takrat živečih Paul Erdos included) in tele koze za vrati.

www.mwsug.org/proceedings/2010/stats/MW...
Man muss immer generalisieren - Carl Jacobi

Zgodovina sprememb…

  • spremenil: Thomas ()

_Enterprise_ ::

thomas - torej trdiš, da je potrebna ženska z IQ nad 200, da lahko matematična stroka razume enega najlažjih problemov statistike? saj sem rekel, kar nekaj ljudi se obrača v grobu

Odin ::

No, vseeno daj te svoje teste najprej gor, IMHO je reč kar pomembna.
Sortiral sem 2500 tabel(array) vsaka po 10 (15 in 20) elementov. Povprecje po 100 takih sortiranj je bilo:

Thomas Insertion

10 elementov
MIN: 0.0093553s
AVG: 0.0098227s
MAX: 0.0111053s

15 elementov
MIN: 0.0187639s
AVG: 0.0196994s
MAX: 0.0220595s

20 elementov
MIN: 0.0312026s
AVG: 0.0329483s
MAX: 0.0368227s


Normal Insertion:

10 elementov
MIN: 0.0081099s
AVG: 0.0087462s
MAX: 0.0091447s

15 elementov
MIN: 0.0155719s
AVG: 0.0165640s
MAX: 0.0189948s

20 elementov
MIN: 0.0276586s
AVG: 0.0293733s
MAX: 0.0325871s


Tako da je v povprecju normalen insertion sort hitrejsi za 11%(10 elementov), 16%(15) in 11%(20). Interesantno, da je 16% pri 15 elementih (sem veckrat ponovil in stalno dobil okrog 16%).

Gledano algoritemsko, je manj read+writes kot pri osnovni veriji. Okoli 20%.
Hm.. Kaj pa smatras za read/write operacijo?

Thomas ::

Odin, dej tisti break nadomesti z "and j >0" v while proceduri. Tvoj compiler penalizira skoke iz zanke.

Bom pa jaz tudi dal svoje rezultate ven.

Za read write operacijo smatram pisanje v/branje iz tabele, kamor šteje tudi primerjanje.

Enterpsise, ne samo da se obračajo mrtvi v grobu, suče tudi nekatere žive. Očitno je inteligenca ali kompetenca precej bolj kaotična. "Ne bi smel" nek Paul Erdos se tkole zmotiti.
Man muss immer generalisieren - Carl Jacobi

Zgodovina sprememb…

  • spremenil: Thomas ()

Okapi ::

Matematiki (eden največjih, takrat živečih Paul Erdos included)
In zdaj bo Thomas že spet trmoglavo vztrajal;(( Vsi drugi matematiki so neka nepreverljiva anonimna množica piscev pisem (Many of those disagreeing with her answer were professional mathematicians and statisticians), za Erdosa pa piše "The story goes ..." in bi rad videl kakšno potrditev, da je ta zgodba tudi resnična, in ne urbani mit ali nekaj v slogu radia Eravan.

Gardner je o podobni uganki pisal že veliko prej, in sploh ni bil prvi.

Tista polemika v Paradi pa je bila v slogu številnih podobnih časopisnih polemik o tem, ali se je tretje tisočletje začelo 1.1.2000 ali 2001.

O.

Zgodovina sprememb…

  • spremenil: Okapi ()
««
118 / 182
»»