» »

Protokol

Protokol

Temo vidijo: vsi
««
116 / 182
»»

nevone ::

Samo po drugi strani pa skepticizem pomaga razjasnjevat in pojasnjevat zadeve.

Marsikdo preko takšne debate tudi pri sebi razjasni kakšne pojme, ki jih morda ne bi, če ne bi bili na forumu takšni, ki se "upajo usajat".

o+ nevone
Either we will eat the Space or Space will eat us.

Okapi ::

Bolj slabo razumeta, očitno, pa tako pametna se delata, oba. Nikjer nisem napisal, da se z evolucijo ne da narediti čudovitih stvari. Pogledaš okoli po naravi, in se lahko samo čudiš. In lahko sta prepričana, da naravo, njeno raznolikost in čudesa poznam bistveno bolje, kot vidva.

Pravim pa, da se z evolucijo ne da narediti vsega, zlasti pa ne na optimalen način. Človeški razum do rezultatov prihaja na drugačen način kot evolucija. Do nekaterih rezultatov pride zato veliko hitreje, do nekaterih drugače sploh ni mogoče priti, do nekaterih rezultatov pa pride evolucija prej in na lažji način.

Kuglice lahko z evolucijo bolje pakiraš, tudi urnike lahko bolje razporejaš, in še tisoč drugih stvari, AI pa na ta način ne bo deloval.

Zdaj pa, ali to sprejmeta ali ne, je vajin problem, ne moj.

O.

Zgodovina sprememb…

  • spremenil: Okapi ()

Thomas ::

Povej kaj se definitivno ne da z evolucijo narest.
Man muss immer generalisieren - Carl Jacobi

nevone ::

Nikjer nisem napisal, da se z evolucijo ne da narediti čudovitih stvari. Pogledaš okoli po naravi,


Saj, ti moraš stvar videt, da veš, da funkcioira. Kakšnen pa upa pogledat tudi malo tja, kjer se še nič ne da potipat.

Zato pravim, da bi isto trdil za enoceličarje na začetku evolucije. Da enoceličarji so že lahko, ampak kaj več se pa na ta način ne da. Zeh.

o+ nevone
Either we will eat the Space or Space will eat us.

Okapi ::

Povej kaj se definitivno ne da z evolucijo narest.
A nisem že pred nekaj posti napisal, da ne govorim o tem, kako možgane narediti, ampak kako možgani delujejo.

Z evolucijo lahko narediš simulacijo možganov, ne more pa simulacija možganov delovati z evolucijo.

O.

Thomas ::

Povej intelektualni problem, ki ga nikakor ne moreš rešit z EA.
Man muss immer generalisieren - Carl Jacobi

Okapi ::

Ustvarjalnost recimo. Z EA lahko problem rešiš (verjetno ne najhitreje, ampak to niti ni pomembno), ne moreš pa ga zastavit. In pri razumu je postavljanje vprašanj v bistvu pomembnejše od odgovarjanja nanje.

O.

Thomas ::

OMG. Zapičil si je v glavo, da vprašanj (!?) se pa ne da evoluirati? Jasno, da prav vsak bitni niz, zato tudi vprašanja v kateremkoli jeziku.

Deljiteljev se najbrž ne da evoliurati, vsaj ne hitreje kot bruta forca. Direktno. Indirektno se pa da tudi to. Lahko bi zevoluirali tudi deljiteljske algoritme, vse ki jih poznamo in še druge, ki obstajajo.

Okapi ... eh.
Man muss immer generalisieren - Carl Jacobi

Okapi ::

Po naključju lahko z evolucijo dobiš karkoli. Lahko jo tudi usmeriš v praktično karkoli. Ne more pa evolucija sama sebe usmerjati v neko določeno smer. Pri evoluciji mora biti vedno nek zunanji dejavnik, ki določi pogoje, v katero se razvija.

Ali, z drugimi besedami, evolucija nima (in niti ne more imeti) svobodne volje. EA ti bo izračunal, kar mu rečeš, naj ti izračuna, ne bo se pa nikoli zavedal samega sebe in deloval kot AI.

O.

Thomas ::

You are so full of "stari predsodki" in "babje modrosti" in podobnega Okapi, da verjet ne morem. Brezupno.
Man muss immer generalisieren - Carl Jacobi

Okapi ::

Saj ni treba verjeti. Pač boš celo življenje stavil na napačnega konja, konec koncev ne boš edini.

O.

Thomas ::

Ma ja, to bo, ti pa na tapravi, ane? Pojma nimaš o teh zadevah, da ne rečem, da niti približno na tem področju nisi še čisto nič naredil in se delaš pametnega povsem na prazno.
Man muss immer generalisieren - Carl Jacobi

Okapi ::

Če drugega ne, nisem edini, ki tako misli. Jaz samo vidim, kaj počnejo eni in drugi in tretji in ocenjujem, katera pot se mi zdi pravilnejša. To je vse.

O.

nevone ::

Jaz samo vidim, kaj počnejo eni in drugi in tretji in ocenjujem, katera pot se mi zdi pravilnejša. To je vse.


Kaj pa če je več pravilnejših? Si prepričan, da moraš nekatere izločit in da je tvoja ocena pravilna, glede na to, da samo gledaš in se z nobenim problemom ne ukvarjaš bolj od blizu?

To, da imaš somišljenike, pa pravilnosti tvojega razmišljanja ne potrjuje.

o+ nevone
Either we will eat the Space or Space will eat us.

Jst ::

Okapi: Ali ti misliš, da je samo simuliranje delovanja možganov pot do AI?
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Okapi ::

Mogoče ni, je pa skoraj sigurno najlažje dosegljivo, ker imamo nekaj otipljivega pri roki, na kar se je mogoče opreti. Teoretično bi seveda lahko zagnal evolucijo še enkrat od začetka in bi se slej ko prej razvil razum (ki bi morda deloval tudi na kakšen drug način kot naši možgani), ampak je to sigurno zamudnejši način.

O.

modicr ::

Živjo!

Okapi je izjavil:

Po naključju lahko z evolucijo dobiš karkoli. Lahko jo tudi usmeriš v praktično karkoli. Ne more pa evolucija sama sebe usmerjati v neko določeno smer. Pri evoluciji mora biti vedno nek zunanji dejavnik, ki določi pogoje, v katero se razvija.

Ali, z drugimi besedami, evolucija nima (in niti ne more imeti) svobodne volje. EA ti bo izračunal, kar mu rečeš, naj ti izračuna, ne bo se pa nikoli zavedal samega sebe in deloval kot AI.


BTW, tule je en sveži primer EA - nogomet: http://demesos.blogspot.com/2010/08/evo...

Po drugi strani pa to mogoče kaže na to, da fuzbal ni ravno "inteligentna" igra .... :)
http://www.independent.co.uk/news/peopl...

Lp, R.
(c) nisem patentiran

WireMess ::

Tole sem nasel danes, linkano s Slashdota, citiram del, ki se mi zdi izjemno zanimiv:

"In particular, Dr Dorigo was interested to learn that ants are good at choosing the shortest possible route between a food source and their nest. This is reminiscent of a classic computational conundrum, the travelling-salesman problem. Given a list of cities and their distances apart, the salesman must find the shortest route needed to visit each city once. As the number of cities grows, the problem gets more complicated. A computer trying to solve it will take longer and longer, and suck in more and more processing power. The reason the travelling-salesman problem is so interesting is that many other complex problems, including designing silicon chips and assembling DNA sequences, ultimately come down to a modified version of it.

Ants solve their own version using chemical signals called pheromones. When an ant finds food, she takes it back to the nest, leaving behind a pheromone trail that will attract others. The more ants that follow the trail, the stronger it becomes. The pheromones evaporate quickly, however, so once all the food has been collected, the trail soon goes cold. Moreover, this rapid evaporation means long trails are less attractive than short ones, all else being equal. Pheromones thus amplify the limited intelligence of the individual ants into something more powerful."

In se:

"Proponents of so-called swarm cognition, like Dr Trianni, think the brain might work like a swarm of nerve cells, with no top-down co-ordination. Even complex cognitive functions, such as abstract reasoning and consciousness, they suggest, might simply emerge from local interactions of nerve cells doing their waggle dances. Those who speak of intellectual buzz, then, might be using a metaphor which is more apt than they realise."


http://www.economist.com/node/16789226

innerspace ::

*Possible offtopic, probably not:

Staro vprasanje: Kaj se zgodi v primeru, da zaznamo blizajoco se invazijo nanosond in nekega nam tujega(*alien) protokola?

Zdaj se iskanje 'zunajzemeljske inteligence' verjetno usmerja proti iskanju 'alien AI', vsaj tako pravijo tukaj:

http://www.newscientist.com/blogs/short...
http://www.bbc.co.uk/news/science-envir...

Kdor bolje pomisli, ugotovi da gre za smiselno potezo.
Upam, da bo odkrit signal, ne pa blizajoce se nanosonde...ceprav gre eno z drugim kar dobro skupaj.
Donate BTC here: 35KR84u3rXN3in1kCw9YHRz4WF3r5kfFF4

Thomas ::

Ben Goertzel se je dokončno naveliča SIAI in njihovega, kot pravi, Big Scare.

http://multiverseaccordingtoben.blogspo...

Tukaj je njegovo stališče.

Tukaj so pa (ne)strinjanja na dveh pro-SIAI sajteih.

http://lesswrong.com/lw/2zg/ben_goertze...

in

http://www.acceleratingfuture.com/micha...
Man muss immer generalisieren - Carl Jacobi

guest #44 ::

Tradeoffs are inevitable.

Sicer ne spoznam se kateri tabori podpirajo katero idejo. Vem le, da če hočeš nekaj se moreš odpovedat nečemu drugemu (pod pogojem, da živiš v zaprtem sistemu).

Lahko pa ukažemo katerikolemu AIju, da ima na voljo le prvi ali prve dva kvadranta vesolja. Tko, če opazimo da je šou FUBAR, mamo vsaj še preostalo polovico.


Thomas, a je kje kak quick summary kateri kekci podpirajo kero metodo? Ne da se mi it skozi 116 strani, da zvem kdo kaj podpira. Please pardon my laziness

Jst ::

Ben ne mara Yudowskega od enega predavanja, kjer je bilo 5 govorcev, če se ne motim, za eno mizo, med njimi Ben in Yudowski in tam sta se skregala.

Yudowski se mi zdi, kot da bi želel prvo imeti vsa vprašanja odgovorjena, vse matematične modele konzistentne, kdor pa kaj probava je pa nevaren za družbo. In glede na prvih nekaj odstavkov prvega linka, se je Ben odločil, da ne bo več "prijazno tiho." In dam mu za prav. Bom pa napisal kaj več, ko preberem Benov post in če ni to, kar sem ravnokar napisal.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

Thomas ::

Vsi kljukci na in okoli SIAI, po mojem skromnem mnenju, funkcionirajo kot konzervativci in reakcionarji. Kot je znano, proti takim v politiki in znanosti - nimam nič, me pa (presenetljivo?) zelo motijo, ko gre za tehnologijo.

Vseeno ima Goertzel v tem okolju ene 30% občudovalcev. Somišljenikov niti ne, ker ne pove, kaj pravzaprav misli. On bo pač naredil, govoril ne bo več toliko.

1/4 verjetnosti za uspeh v naslednjih 10 letih mu kljukec Thomas da. Potem premisli in mu da še več, saj ta luni (Thomas) tudi misli, da mu je njemu samemu bistvo cele "intelligence sage" prezentno in dopušča kar znatno verjetnost, da Ben ve podobno ali "izomorfno". Potem premisli še naprej in mu zniža verjetnost uspeha. A le zato, ker je treba upoštevati še tretje osebe, ki so pametno tiho, si mislijo svoje in delajo isto. Torej, Goertzel bi že, samo težko ravno prvi, morda pa le.

Yudkowsky, Kurzweil, Bostrom ... so Singularnost zapravili in zamudili. Ben Goertzel je ni nujno.

Kdo je brata Wright?
Man muss immer generalisieren - Carl Jacobi

Jst ::

Ben je car. Že njegova frizura, način njihovih predavanj, pove da se mu je*e, kar si drugi mislijo. Pomoje so mu pa še fouš, ker ima zelo dobro delujoč model iz katerega ven vleče razne bolj Narrow AI projekte, ki mu nosijo denar.

Yudowski se ima pa za nekega ultra racionalnega boga in njegova čreda napada Novamente-like projekte z "You're creating doomsday, holocavst, you wanna kill all humans..." Ben je dobro povedal, kar si misli o CEV in ima podobno mnenje, kot sem ga napisal jaz prvič, ko je bil omenjen v tej temi. Za drugič sem pa obljubil še bolj razdelano mnenje, ampak za logično konzistentno protiargumentacijo nimam časa, ker bi mi vzela kakšen teden. Zato, če kdo hoče prebrati, naj si poišče moj prvi prispevek, zakaj je CEV wishfull thinking ali pa prebere, kaj je napisal Ben.
Islam is not about "I'm right, you're wrong," but "I'm right, you're dead!"
-Wole Soyinka, Literature Nobelist
|-|-|-|-|Proton decay is a tax on existence.|-|-|-|-|

guest #44 ::

Torej Yudovskega ni za marat?

Okapi ::

Meni se vsi skupaj zdijo kot en pretežno smešen debatni krožek, konkretno pa ne bo nihče od njih naredil nič revolucionarnega, in ne bo zares vplival na nič pomembnega.

Umetna pamet pa bo, ko bo, nastala v kakšne Googlovem laboratoriju, ali v razvojnem inštitutu kakšne več milijard dolarjev vredne firme. Ampak se ni za bati, da bi se to kmalu zgodilo.

O.

guest #44 ::

Bi se skoraj strinjal. Čist možno je da se bo neka primitivna verzija AI razvila v kakem super laboratoriju za čist drug namene. Kasneje bodo opazili, da je zmožna še marsikaj drugega kar niso predvideli.

Za garage AI...dvomim. Najbolj sumim kako vojsko, kitajsko še posebej.

Zgodovina sprememb…

whatever ::

Ja. Pogruntal bojo, ampak pomoje ne bo mel nobene veze z AI. Pomoje kake ultra močne ultra natančne laserje, s katerimi bojo lahko pržili ljudeke na Zemlji jedan po jedan kar s satelitov. Ali pa teleport neživih objektov (žive pomoje ne bo šlo zaradi problema uničenja kopije). Al pa Tesla Coil. Špekuliram seveda.
Veliko jih je notri, še več jih je pa zunaj.
Bilijarde v šole! - Ivan Kramberger
Abnormal behaviour of abnormal brain makes me normal.

guest #44 ::

The FU???

Thomas ::

Zaenkrat je skoraj vse, kar je pomembnega, nastalo iz "garažnih" firm ven.

Britanska mornarica, ko je bila najmočnejša, ni nikoli odkrila Severezahodnega prehoda, kjub številnim ekspedicijam. Amundsen, s sanmi in tropom psov, ga je.

Jih je kaj izučilo? Čisto nič. Amundsen s psi jom je kmalu po tistem odvzel še primat za Južni tečaj.

A nej dam še 100 primerov? Kako IBM ni mogel narediti OS-a za PC in je iz tega zrasel Microsoft? Kako Microsoft ni mogel narediti pa potem, ko je bil že velik, Googla? Sta ga moral dva študenta v svoji sobi?

Kako sta moral dva popravljavca koles rešiti letalno čast človeštva. Ne nek fizikalni inštitut Cesrja Wilhema v Berlinu ali kakšna Ford factory.
Man muss immer generalisieren - Carl Jacobi

c3p0 ::

>> 1/4 verjetnosti za uspeh v naslednjih 10 letih mu kljukec Thomas da.

Zakaj smo pa vedno "le še 10 let" stran? :)

T-h-o-r ::

že od 2000 smo 10 let stran ;)
Why have a civilization anymore
if we no longer are interested in being civilized?

Thomas ::

Vidva kar ostanita stran za vedno. Ne bit izdajalca, če se stvar kadarkoli premakne v sedanjost.

Goertzel izreka neko zelo posredno grožnjo, a grožnjo vendarle, da lahko "vsakdo ostane tudi zunaj". Tako, da če mu SLUČAJNO kaj rata, bodita ponosna in naredita harakiri.

Ne bodita kljukca nikdar!

(Mi gredo eni ljudje na jetra ...)
Man muss immer generalisieren - Carl Jacobi

Okapi ::

Britanska mornarica, ko je bila najmočnejša, ni nikoli odkrila Severezahodnega prehoda, kjub številnim ekspedicijam. Amundsen, s sanmi in tropom psov, ga je.
Britanske mornarice ni zanimal prehod, ki ga lahko prečkaš s sanmi in psi in malo barčico, in to tako, da se pozimi, vkleščen v ledu, utaboriš sredi poti. Britanska mornarica prehoda ni našla, ker takšnega, kot so so ga oni iskali, sploh ni.

A nej dam še 100 primerov?
Lahko jih daš, koliko hočeš, pa bodo vsi napačni. Umetna inteligenca skoraj zanesljivo ni ena preprosta napravica, ki jo lahko narediš v garaži za par jurjev, ampak raketa za na luno, Hubblov teleskop, vodikova bomba, LHC, atomska podmornica ... Veliko sreče z garažno proizvodnjo teh reči.

V najboljšem primeru lahko v garaži nekdo pogrunta neko za zdaj neznano bistvo v ozadju inteligence (če sploh obstaja), ki bo omogočilo IBM-u ali kitajski vojski, da v milijarde dolarjev vrednem laboratoriju naredi nekaj uporabnega.

O.

Thomas ::

Britanska mornarica je rekla, da je grozdje Severozahodnega prehoda prekislo. Čeprav smrtne žrtve je že zahtevalo, ko so ga skušali doseči. Prav tako Južni tečaj. Ni bil zanimiv, Scotta so poslali dol umret samo za kratek čas.
Man muss immer generalisieren - Carl Jacobi

WarpedGone ::

Britanska mornarica prehoda ni našla, ker takšnega, kot so so ga oni iskali, sploh ni.

To je cel point - velike orginizacije VEDNO in NONSTOP sklepajo kompromise kam bodo metale denar - rezultat je pa vedno, da gre denar v smer, katera se mnogim zdi "pametna". Res napredno idejo ima pa vedno le kak posameznik, nikoli veliko ljudi hkrati. Večina enostavno ve, da tisto ni možno. Zato so velike organizacije DISABLED BY DESIGN.

Umetna inteligenca skoraj zanesljivo ni ena preprosta napravica, ki jo lahko narediš v garaži za par jurjev, ampak raketa za na luno, Hubblov teleskop, vodikova bomba, LHC, atomska podmornica ... Veliko sreče z garažno proizvodnjo teh reči.

Umetna inteligenca zahteva le pravi pristop, pravo štartno idejo.
Roket science je hudimano zahtevno inženirstvo, NE pa iskanje novega pravega pristopa.

Kolektivisti imajo neomejeno zaupanje v kolektiv, iz zgodovine se pa ne naučijo ničesar.
Zbogom in hvala za vse ribe

Okapi ::

Umetna inteligenca zahteva le pravi pristop, pravo štartno idejo.
Mogoče, ampak to še ne pomeni, da lahko tisti, ki bo to pogruntal, umetno inteligenco tudi naredi. Lahko je Herman Potočnik gruntal v eni mali sobici in narisal vesoljsko postajo, ampak narediti je pa ne bi mogel.

Poleg tega nikoli ne veš, od kje bo tista prava štartna ideja prišla. Da bi jo pogruntal ravno eden od teh futuristov je celo razmeroma malo verjetno, IMHO. Je bolj verjetno, da bo prišla iz neke čisto nepričakovane smeri, mogoče iz kakšnega nevrofiziološkega laboratorija, ali mogoče kakšnega računalniškega projekta, ki so bo ukvarjal z recimo strojnim prevajanjem, prepoznavanjem vzorcev ali kaj podobnega. Mogoče jo bo odkril nek raziskovalec v Cernu, pri Googlu, mogoče celo kakšen razvijalec pri Facebooku:-)

O.

_Enterprise_ ::

Okapi je izjavil:

ki so bo ukvarjal z recimo strojnim prevajanjem, prepoznavanjem vzorcev ali kaj podobnega
tole
jest mislim, da je za dober start ideje AI treba razvit dobro orodje za natural language processing, torej da vzame text kot input, ga razgradi in pobere ven informacije, jih da v ustrezne baze podatkov in nato s temi bazami operira.
point je v tem, da imaš program, ki ima ogromno baz in podatkov noter, da lahko simuliraš inteligentno mišljenje. lahko te podatke vnašaš ročno, ampak bi bilo precej zamudno, zato pač avtomatiziraš vnašanje in direktno vnašaš text, naprimer.

Thomas ::

Zadeva je najbolj podobna reševanju Fermatovega takoimenovanega Poslednjega problema ali pa Poincaréjeve domneve. Ali dokazovanju (ne)pravilnosti Goldbachove domneve. Ali Darwinovemu, Edisonovemu ali Newtonovemu podvigu.

Posameznik enbeded v Academio ali posameznik izven, kakor kdaj, zavrže prave in upošteva ravno prave pretekle informacije in - viola!

Za manj denarja, kot ga kakšen Google dnevno porabi za letalske karte in hotelske stroške svojih delavcev, poslanih na izobraževanje.

Jaz direktno vzpodbujam vsakogar z več kot eno promilo možnosti, naj proba, kakor misli sam, da je najbolj prav.
Man muss immer generalisieren - Carl Jacobi

guest #44 ::

A v super laboratorjih ni pametnih posameznikov ali kako?


To bi bila taka ironija, da namesto vseh singularistov bi jo poštekal nek, sicer brihten, ampak jebiveter znanstvenik pri googlu.

Jaz si tudi zamišljam nekako tako, da bo Google ali kdo podoben zahteval nek samoučni software ki bo znal prepoznavat neke vzorce ali odgovarjat na vprašanja...tipo koj je IBM naredu pred kratkim. Seveda, bi do ideje prišu posameznik ampak izvedu bi jo prek resursov, ki jih ima na voljo.
Vojska podobno...dejmo rečt, da bi kitajci rabli kak tak samoučni software za preračunavanje scenarijev ali analize stanja, optimizacija delovne sile,...

Jz sem skoraj prepričan, da bomo sprva ugledali "unfriendly" AI...enostavno ker ga je lažje naredit IMO. Kaj porečeš Thomas?

Thomas ::

Porečem, da tisti, ki dela za Google in bo pogruntal, da njegov program za razvrščanje vzorcev kaže znake genialnosti... bo obesil službo pri Googlu na klin. Bo raje ustanovil svojo firmo, če jo bo sploh moral.

Unedva luleka ki sta pogruntala "Google algoritem", ne bosta imela kaj velikega kosa od te pogače. Prej kakšen sošolec, žena, ljubica, tašča, friendly sosed.

In ja, seveda, AI bo afriendly.
Man muss immer generalisieren - Carl Jacobi

Zgodovina sprememb…

  • spremenil: Thomas ()

guest #44 ::

Well...makes sense. Ampak for the record je to pač uspel narediti pod googlovim okriljem.

Sicer pa kera verzija AI misliš, da bo prva ugledala luč? pa ne bit biased

Thomas ::

Sej je bil tudi Internet narejen pod okriljem US Army, tiste račune za telefon v milijonskih zneskih je pa plačeval Digital Equipment al kdo že. Pa niso zdej oni kej prida na dobrem zarad tega.

Prvi bo ugledal svet en self optimizator, pred katerimi Yudkowsky skoz svari.

Če se še tko trudim biti unbiased, mi ta varianta priplava gor.
Man muss immer generalisieren - Carl Jacobi

guest #44 ::

Berem yudowskijevo stran...in tam sem našu tisti summary o katerem sem spraševal.

Delno sem prebral še to

http://yudkowsky.net/singularity/ai-risk

Pa sej yudowsky zagovarja Friendly AI, če prav razumem?

Thomas ::

Seveda. Ta termin je on izumil, kolikor vem. Zdej se že 10 let pripravlja, da dokaže, kako je FAI mogoča in "stabilna tudi ob hitri autooptimizaciji". Nobenih konkretnih korakov pred tem v nobeno smer "ne dovoli", dokler se to ne ... dopolni.

Kljub temu, da pove marsikaj pametnega, pa je tukaj IMO totalno zabluzil. Sem to omenjal že mesece nazaj, če se spomnite. Njegov SIAI je na dobri poti, da potone v pozabo. Čas za kakšen konkreten podvig bo prišel, oni pa kaj? Stopicajo na mestu. Paralizirani in uročeni od strahu pred UFAI.
Man muss immer generalisieren - Carl Jacobi

guest #44 ::

Torej, če prav razumem si ti tisti, ki iziva prihodnost? Tebe strah pred UFAI ne omaje?

Thomas ::

Oh, jaz sem skromni promilni igralec, kot stotine drugih. Ne, mene UFAI v določenih pogojih ni čisto nič strah. Kvečjemu, če bi nekdo nalašč zadeve naredil tako, da bi bile U.

Inteligenca (umetna ali kakršnakoli) je samo služabnik motivov, na katere je slučajno naklopljena. Sem že večkrat govoril o tipčku z IQ 200, ki strastno zbira kitajske vaze. "Če bi bil pameten, ne bi garal za tiste črepinje nonstop, ampak bi jih lepo vrgel v smeti in jih ne bi kupoval več, ves zaslužen denar pa porabil kako drugače." Žal tako ne gre. Najbolj banalen nagon ali motiv, si povsem podredi še tako veliko inteligenco, brez težav.

Vrhovni motiv je lahko scary, inteligenca sama pa ne.
Man muss immer generalisieren - Carl Jacobi

guest #44 ::

Agree.



[ignore]

Čemu obstaja "entertainment"?

Namreč, vse kar ponuja friendly AI je "entertainment enabled" IMO. Kar je iz naše perspektive zlo mamljiva ponudba...ampak what's so wrong with being a bacterium or mindless nanobot, survive and multiply?

Just something that ran trough my mind.
[/ignore]

T-h-o-r ::

Thomas je izjavil:

Vidva kar ostanita stran za vedno. Ne bit izdajalca, če se stvar kadarkoli premakne v sedanjost.

Goertzel izreka neko zelo posredno grožnjo, a grožnjo vendarle, da lahko "vsakdo ostane tudi zunaj". Tako, da če mu SLUČAJNO kaj rata, bodita ponosna in naredita harakiri.

Ne bodita kljukca nikdar!

(Mi gredo eni ljudje na jetra ...)



daj no, jaz se samo hecam bemtiš, ne bit tako resen
Why have a civilization anymore
if we no longer are interested in being civilized?

Saladin ::

A obstaja že kako "failsafe okolje",
v katerem bi lahko laufal še tako napreden, samooptimizirajoč, morda celo nevaren in "maligen" AI,
vendar pred katerim bi bil lahko "relativno" varen pred kakim Skynet scenarijem?

Torej popolnoma izoliran, one way sistem, nad katerim imaš lahko celoten vpogled, AI pa nima nobenega dostopa do zunanjih informacij (razen tisth, ki mu jih daš)? Govorim o situaciji, ko AI (namerno ali nenamerno) poskuša na vse načine dobiti pod kontroli neželjeno, eksterno okolje - ima pa obenem sposobnost inteligentnega prikrivanja le tega?

Tudi takšne AI-je bomo morali obvladat, ampak morda je smiselno prvo narediti primerno zaščiteno okolje za takšne poskuse - preden se igramo random scenarijev, od katerih en morda (katastrofalno) uspe?
Dobro je kar nosi največ svobodne koristi/najmanj bolečine čim več sentientom
na najhitrejši, najvarnejši in najbolj moralen način za najdaljše obdobje.
"Utilitarianizem po Saladinovo"
««
116 / 182
»»