» »

Protokol

Protokol

Temo vidijo: vsi
««
145 / 182
»»

vostok_1 ::

donfilipo je izjavil:

Hm tole z električnimi nebesi ne pozabimo, je malce drugače. Ne gre za - Hannibal je ante portas what shall we do -! Gre za - ma vodi ga u onu njegovu sobu pa nek se jebe - :) Pomeni računalniško simulacijo se da prirediti tako, da so interakcije poljubne in nemoteče. Če se še spomnite, smo že pred leti ugotavljali, da ko se gradi umetni habitat, ga je treba narediti skrajno človeku prijaznega. Sicer nima smisla! Torej ni problem - my dumm ass taking the place of your madona - , problem je dovolj 'resursov' tako virtualno okolje postaviti. Problem danes, ko fizike (še) ne poznamo. Če jo nek AI nekako spozna, ...pa ga moramo prepričati, da bo benevolenten tudi do ljudi, z relativno za njega majhno inteligenco. A ono ISIS ma kamot svojo posebno sobo, kjer se izmenično rastreljujejo in ukvarjajo z devicami. Ja vseh 72. Zna biti tudi muka...izziv8-)


Torej ti bi dovolil ISIS-ovcem? Nastavi drugo lice praviš.

Benevolenten AI bi imel iste dileme. Benevolenca ob enem zahteva tudi veliko mero premišljenosti.
Zabit AI pa ne. Either vsem, nobenemu, ali samo tistemu, ki ki jih ima na spisku.

Zgodovina sprememb…

  • spremenil: vostok_1 ()

donfilipo ::

Torej ti bi dovolil ISIS-ovcem? Nastavi drugo lice praviš.


Nastaviti drugo lice je v jedru veliko bolj komplicirana zadeva8-). Dogaja se v okolju, 'real gods earth', ki se smatra za realno in kjer je človek smrten. Vera v nebesa pa tako - tako. Sad radi, sad ne radi8-) Iz mita se naučimo neke strpnosti, empatije in moči miroljubnih rešitev, ki lahko kot ideologija v masah tudi delujejo, (preverjeno recimo videno pri Gandhiju), velikokrat pa te barbari lahko tudi enostavno ubijejo, če nastaviš drugo lice, namesto da potegneš mitraljez8-)

Kar je tukaj mišljeno je most, bližnjica, ali quantum leap v realnost raja. Za ono prvo jezusovo, je potrebna neka vera - ideologija, ...za električna benevolentna nebesa pa razvoj in nekaj temeljnih zakonov, ki omogočajo interakcijo sentientov tako, da se ti ne morejo prizadeti. Pomeni ISIS bi v kolikor bi še hotel, moral zmagovati - terorizorati ...nad umetnimi sentienti, ali prostovoljci, .... prave instance sentientov, pa bi nekako morale biti neuničljive in ne podlegati mukam. To, ko enkrat postaviš tako okolje, ni neka velika umetnost, ...v jedru postane zakonitost, a problem je tako okolje postaviti. Danes še. Če tega ne dojameš, nisi dojel nič in prestavljaš vice in pekel v ta električna nebesa.

Da lahko verjamemo v benevolentnega boga ima seveda celo trpljenje na zemlji nek polovičen smisel samo, če so nebesa realna, pekel in ostalo je pa v jedru overkill in bi kazalo da bog ni benevolenten>:D

In še skokec nazaj v realnost in ISIS. Domneva se, da taka in podobne norosti nastanejo predvsem v okoljih, kjer so pomanjkanja, redna in celo izredna in imajo take ideologije svoje prednike že v navadah naših daljnih prednikov. Pomeni iztrebiti konkurečno hordo, ki nam je vse gomoljike in antilope:) V kolikor se pomanjkanje odpravi...in v umetnem okolju ni nobenega smisla za pomanjkanje v današnjem smislu. ... to predvidoma pomeni tudi konec norim ideologijam. Enostavno povedano. Realno imajo te trdovratna semena, ki preživijo tudi par sto let blaginje 8-)
In times of Universal Deceit, telling the truth
becomes revolutionary act. Orwell

windigo ::

donfilipo je izjavil:

Domneva se, da taka in podobne norosti nastanejo predvsem v okoljih, kjer so pomanjkanja, redna in celo izredna in imajo take ideologije svoje prednike že v navadah naših daljnih prednikov. Pomeni iztrebiti konkurečno hordo, ki nam je vse gomoljike in antilope:) V kolikor se pomanjkanje odpravi...in v umetnem okolju ni nobenega smisla za pomanjkanje v današnjem smislu. ... to predvidoma pomeni tudi konec norim ideologijam. Enostavno povedano. Realno imajo te trdovratna semena, ki preživijo tudi par sto let blaginje 8-)


Med katoliško inteligenco je trenutno popularno nasprotno stališče, da obilje generira dodatno tekmovalnost, želja po Reneju Girardu ni realna, temveč je mimetična, druženje v obilju pa celo spodbuja greh, torej tudi odprava pomanjkanja ne more urediti tovrstnih problemov.

Sam sicer nisem čisto prepričan, da je veljavnost te mimetičnosti prav hudo splošna, je pa mogoče ugotavljati, da vnos "luksuza" v nekatera okolja do neke mere spreminja pravila igre.

Okapi ::

Nastaviti drugo lice je v jedru veliko bolj komplicirana zadeva8-). Dogaja se v okolju, 'real gods earth', ki se smatra za realno in kjer je človek smrten.
Vsa ta svetopisemska priporočila in navodila je treba razumeti v kontekstu časa, ko so nastajali, da lahko oceniš, kdaj so morda celo res koristna, kdaj pa niti ne.

Recimo praktično vsi Jezusovi nauki so nastali precej po njegovi smrti, po uporu proti Rimljanom, ki se je za Jude zelo klavrno končal. "Taktika & strategija" kristjanov je bila na prvi pogled sicer videti čudaška, z nastavljanjem lic in mučeništvom, ampak v dobrih 200 letih so uspeli spreobrniti celo rimsko cesarstvo. Ampak delovala je v primeru Rimljanov, proti komu drugemu pa morda ne bi.

O.

vostok_1 ::

Okapi je izjavil:

Nastaviti drugo lice je v jedru veliko bolj komplicirana zadeva8-). Dogaja se v okolju, 'real gods earth', ki se smatra za realno in kjer je človek smrten.
Vsa ta svetopisemska priporočila in navodila je treba razumeti v kontekstu časa, ko so nastajali, da lahko oceniš, kdaj so morda celo res koristna, kdaj pa niti ne.

Recimo praktično vsi Jezusovi nauki so nastali precej po njegovi smrti, po uporu proti Rimljanom, ki se je za Jude zelo klavrno končal. "Taktika & strategija" kristjanov je bila na prvi pogled sicer videti čudaška, z nastavljanjem lic in mučeništvom, ampak v dobrih 200 letih so uspeli spreobrniti celo rimsko cesarstvo. Ampak delovala je v primeru Rimljanov, proti komu drugemu pa morda ne bi.

O.

Proti ISIS-u zagotovo ne. Tej bi bili veseli, ker jih ne bi rabili lovit na okoli, ampak bi se kr sami javljali.

Bellatrix ::

Mislim, da bi si mogli sam upload dejansko zamisliti kot neke vrste nebesa. Kdo gre v raj (nebesa)? Tisti, ki si to zasluzi. Torej zivi prijazno zivljenje, ne gresi, pomaga bliznjim itd. (vsaj ce se opremo na krscanstvo).

Zanimivo je predvsem to, da imajo vse vere to idejo -cilj o posmrtnem zivljenju kot nek ideal, ki te za casa zivljenja spodbuja k 'pravemu' ravnanju, da bi bil potem delezen nagrade po fizicni smrti.

Kdo si je to izmislil ne vem, a jasno je, da je ogromno ljudi pripravljenih slediti naukom, da bi lahko po smrti sli v nebesa. Ce danes nekomu govoris o uploadu te bo imel za norca, ce ne, za fanatika. Trume ljudi tekom tisocletij pa so vztrajno verjele v posmrtno zivljenje in nebesa kljub temu, da niso o tem imele nobenega dokaza, ali pac. Mogoce je za to kriva ze privzgojena vera in pranje mozganov v mladih letih, morda pa upload dejansko ze obstaja in se skriva pod besedo nebesa.

Ne obstajajo pa samo nebesa temvec tudi vice in pekel. Torej tri vrste uploada za tri vrste posameznikov. Vrhovni odlocevalec -bog (stvaritelj sveta) pa je tisti, ki odloca o tem kdo bo kam sel.

Kdo bo torej odlocal ali gre nekdo v upload ali ne ? Tisti, ki ga bo ustvaril.

Prej sem omenil moznost, da upload ze obstaja. Kar seveda po trenutnem razumevanju ni mogoce. Ampak, ce ze obstaja in ga mi nismo ustvarili sta moznosti le dve. Ali smo mi ze v enem uploadu in po smrti preidemo v drugi upload ali pa mi zivimo v 'realnem' svetu in je nekdo drugi ustvaril upload in nas po smrti razvrsca tja.

Znanost in vera seveda ne gresta skupaj, ali pac.
People are quick to judge and slow to correct themselves.

vostok_1 ::

Well you know. Sounds nice, ampak bomo spet rabli nekoga na Sinaju, da nam prinese pravila dobrega ravnanja?

Bellatrix ::

Bolj kot to bomo rabili dokaz, da stvar deluje. Mnozica bo drugace proti in ne bo imela motiva za upostevanje pravil.
People are quick to judge and slow to correct themselves.

Smurf ::

vostok_1 je izjavil:

Well you know. Sounds nice, ampak bomo spet rabli nekoga na Sinaju, da nam prinese pravila dobrega ravnanja?

Ce ze rabimo boga (vprasanje) je to lahko le AI.

Bellatrix ::

Smurf je izjavil:

vostok_1 je izjavil:

Well you know. Sounds nice, ampak bomo spet rabli nekoga na Sinaju, da nam prinese pravila dobrega ravnanja?

Ce ze rabimo boga (vprasanje) je to lahko le AI.


Vsekakor. AI rabimo, za procesiranje in odločanje. Okvirje njegovega delovanja pa bomo mogli kar sami določiti. 10 AI zapovedi ;-)
People are quick to judge and slow to correct themselves.

vostok_1 ::

Še vedno ne vidim, zakaj bi to kdo naredil. Predvsem tisti, ki bo imel gumb pred seboj.

Smurf ::

vostok_1 je izjavil:

Še vedno ne vidim, zakaj bi to kdo naredil. Predvsem tisti, ki bo imel gumb pred seboj.

Mocno dvomim, da bo taka moc v roki 1 osebe. Prej bo konglomerat privatnih/javnih organizacij/drzav. V takem primeru pa gres tezko mimo nekih pravil.

donfilipo ::

Znanost in vera ne gresta preveč dobro skupaj. Religije temeljijo na prastarih štorijah in mitih, ki eni od druge kopirajo in deloma tudi evoluirajo, ...v jedru pa držijo če gledamo v praksi, skoraj vedno neko konzervartivno zakonodajo, ki je nekako toliko outdated, da jo večina civilizacij niti ne more izpolnjevati. For real. Če se zdi da gre vse v maloro, pa niti ni čudno, če se nekdo spomni da je satanovo obljubljanje umetnega raja na zemlji ravno posledica nespoštovanja starih zapisov do temelja.

Bom skušal preglodati vse ideje, ki so mi jih že pred stoletji pokradli iz teme gnosticizma, Rene Girarda, Erica Voegelina in o emanaciji ehatona8-)...samo tako na blef bi pa kar rekel, da fantastika ne klapa z realnostjo. Nekatere zadeve so for real povsem drugačne. Odločilno drugačne. In to o čemer se tu pogovarjamo je mišljeno for real in ne kot neka nova religija. Je treba vsake toliko poudariti. Čeprav seveda lahko tudi čisto drži, da že smo v neki virtualni realnosti, ki se konča z uploadom v nebesa. Pa še špekulirajmo, da če je nekdo res pokvarjen do temelja, mu morda tudi bolj paše pekel8-) Samo to tej konkretni zadevi, ...namreč AI singularnosti ki prihaja, kaj prida ne pripomore, ...posebej če doseže, da se jo gleda kot mit, z namero vzgoje in profita:8) Namera je RES neko razmišljanje o zakonih, ki bi v taki virtualni realnosti veljali za recimo maksimizacijo količnika pleasure/pain.
In times of Universal Deceit, telling the truth
becomes revolutionary act. Orwell

donfilipo ::

Aja še enkrat tole. Če vzamemo da bo nekdo določal redke posameznike, ki gredo v 'mašino' singularnosti, ... glavni praktični razlog bi bila omejena entalpije, potrebna za obračanje tega virtualnega raja, ...to na drugi strani pomeni tudi, ...da gre za nekakšen multigenocid. Kot nam je danes približno jasno, bo hlastanje za entalpijo spremenilo realni svet v nekakšno popolnoma klasični biologiji neprijazno baterijo, .... Tako da je to genocid nad vsemi izvzetimi iz singularity. No seveda je prav to današnjo realnost možno simulirati in seveda enhancati. Ampak genocid nad izvzetimi pa ne gine :) Zdaj kako danes recimo Obama gleda nad genocid nad njegovo družino, ker ne bi hotel v VR? Jezno po moje:)) No pa da ne bo pomote. Obama ni sploh neka redkost med svetnimi mogočneži. Postularnimi, realnimi in mogoče celo uno potencialnimi. Cela rajsa jih je!!!
In times of Universal Deceit, telling the truth
becomes revolutionary act. Orwell

Zgodovina sprememb…

Gaius ::

WarpedGone ::

Odlična razlaga, kaj je sploh protokol in zakaj je nujen bolj kot karkoli v človeški zgodovini do sedaj, brez enkratne omembe besede.
Zbogom in hvala za vse ribe

donfilipo ::

Besedo protokol v tem pomenu si je izmislil Thomas in se je ker jo je utemeljeval v slovenščini, je delno poznana samo pri nas. Angleski in Ruski jo ne poznajo 8-) Če kdo išče pač mora iskati pojme transhumanism, AGI, upload, Nick Bostrom, Ray Kurzweil, Elizier Judkowsky, Ben Goertzel itd. Če ne bi bilo teme protokol na slotech-u, pa seveda tudi nastavki poznavanja transhumanizma pri nas ne bi imeli tekih dimenzij, kot jih imajo.

Pričakovati od Bostroma da bo omenil besedico protokol, je podobno kot da bi omenil, da je recimo Bled najlepši kraj na svetu. Ni nemogoče, ni pa tudi ravno verjetno.
In times of Universal Deceit, telling the truth
becomes revolutionary act. Orwell

Zgodovina sprememb…

  • spremenilo: donfilipo ()

WarpedGone ::

Tolk besed in povedanega 0 (nič) bistvenega.
SloTech defined.
Zbogom in hvala za vse ribe

donfilipo ::

Tapkarija ni zate. Ti si brezupen primer. Sem pa zasledil da je kak mladinec včasih rahlo zbegan...ker ne poveže protokola s transhumanizmom. Za njih.
In times of Universal Deceit, telling the truth
becomes revolutionary act. Orwell

WarpedGone ::

Beseda ni koncept, ampak samo simbol.

Men kaže 145 strani v tej temi ampak ~99% (+/- kakšna desetinka) sodelujočih ni skapiralo kaj sploh je vsebina in namen odprtja teme.
Zbogom in hvala za vse ribe

donfilipo ::

Veliko jih bere samo zadnjih par strani. Morda procent slo-techovcev je prebralo celo temo. Podobno je tudi s temo transhumanizem v svetu na žalost... le da ima ta milijonkrat večje oglaševalske in poučne kapacitete podkrepljene z močno industrijo. In zna biti. da če kdo pogleda še drugam, hitreje dojame za kaj gre.

Sicer pa beseda Protokol kot jo je utemeljil Thomas je seveda simbol kot vse besede, človeštvo deluje na bazi podajanja simbolov,....vendar ko nosi nek simbol za sabo goro date podane v maljon simbolih postane tudi koncept. In Protokol je kot včasih opazim že kar postal pojem ali koncept. Ne povsem enak kot recimo upload, vendar dovolj soroden. Kar je rezultat truda in volje Thomasa predvsem, pozneje pa tudi ugovarjanja in debatiranja sodelujočih na forumu in še v kaki gostilni izven teh okvirov sem tudi slišal in celo 1x ujel.

Vendarle po svetu seveda je to x krat obsežnejše in ponekod tudi zanimivejše, preciznejše z novimi idejami, podatki....pa tak link za tiste novince, ki preberejo samo par postov....

Drugače pa meni je Thomas osebno povedal temo še preden jo je zatapkal v osnovi...in iz osnovne ideje, ki je precej zahteven filozofski koncept v jedru...je tokom razvoja jasno ostalo bolj malo.....prepričevanje, seznanjanje je prevagalo nad simpozijem o zakonih, ki naj jih spoštuje mašina uploada. Na tej točki sem vsaj sam pogruntal je polovica transhumanistov....izven osnov poznavanja družboslovja.
In times of Universal Deceit, telling the truth
becomes revolutionary act. Orwell

WarpedGone ::

Hja, zahteven koncept ... dokler se ga predstavlja slabo, je morda zahteven.
Bostrom je na zgornjem predavnanju stvari postavil dead simple.
Kdorkli se zna podpisat, razume angleško in si vzame 15 minut da video pogleda, bo skapiral za kaj se gre in kaj je problem:
- biološke omejitve so strožje kot fizikalne
- "nevarna" AI je bol enostavna kot "varna" AI
- kako se zazihrat da bomo prej zgruntal varno AI kot nevarno AI?

Kako bomo najprej zgruntal voz in šele nato kolo?
Zbogom in hvala za vse ribe

donfilipo ::

Ne!

Poznam ljudi ki majo magisterije, doktorate,...ali diplome... znajo angleško perfektno.... sam sem nekaterim limal linke....pa koncepta v jedru ne dojamejo. Pa Bostrom gor ali dol! Ker ne dojamejo kaj je explozija inteligence. Kaj šele kaj pomeni to lahko v praksi nujno čez 20 in več let...poleg boljših Sirijev, Cortan in igric:)

In ja tudi Bostrom tudi približno ni našel trdnega odgovora na kako zazihrat da bo AGI benevolenten, ...niti Elizier Judkowski ne, ki v glavnem na tem resno dela in filozofira 12 ur na dan, ...če je sreča včasih pri kom dvignejo malo ušesa. Tisti procent ki koncepte pozna...zaenkrat ni odločilen faktor niti pri snovanju umetne inteligence. Je pa res, da tam je zavedanje o konceptu precej večje.

Also grem zdaj raje malo v naeravo kot da nadaljujem prepir sa tupim drvom:)) Ampak samo toliko v vednost in upanje. Nick Nostrom na srečo VE, da je GW resničen in grozeč, ve tudi...da je AGI vendarle veliko večja nevarnost za človeštvo..samo pomaga to pa nič. Ali zelo malo. Ampak je pa lepo, da pride človek ki VE do malo odmevnejših ročic vpliva:)
In times of Universal Deceit, telling the truth
becomes revolutionary act. Orwell

WarpedGone ::

Ne, sej maš prav. Pa js tut.
V principu bi moralo zadostovat kar sm napisal, ampak prepogosto tudi "akademski biseri" zadeve ne dojamejo.
Kar ne pomeni da je problem težek (skapira ga froc na začetku OS) ampak pomeni da je človeška inteligenca jako defektna zadeva.
Biser na neki mali domeni, a obupno zagaman debil na drugih področjih.

Ker smo vajeni da logiko uporabljamo le ko je to res nujno in smo v to zbrcani. Povsod drugje pa se zanašamo na stereotipe in "sej vsi vemo" - osnovni živalski princip posnemanja. To rodi pobožne doktorje in ljudi ki so prepričani v XYZ in enostavno niso pripravljeni tega prepričanja zavrečt. Naj logika govori karkoli hoče, prepričanje bo ostalo. Because.

Taka narava nas dela še tolk bol ranljive, ko bo nek dripac scopral samooptimizirajoč sistem, ki skoraj pod nujno ne bo dovolj dobro omejen in bo štala.
Nevarnost je realna, nje zavedanje šibko in prepleteno z nelogičnimi prepričanji in ubadanji z XYZ.

Great filter.
Zbogom in hvala za vse ribe

Okapi ::

Kako veš, da imaš ravno ti prav? Da si skapiral bistvo, vsi, ki mislijo drugače, se pa motijo?

Zgodovina sprememb…

  • spremenil: Okapi ()

WarpedGone ::

Ker sta predpostavki zelo osnovni:
- biološke omejitve računanja (možgani) so strožje kot fizikalne => nebiološki računski stroj je lahko močnejši kot biološki
- vse kar je možno se bo slej ko prej uresničilo => slej ko prej bo nebiološki računski stroj presegel sposobnosti biološkega

Bom pa vesel, če mi bo kdo uspel pojasnit logično diht, kako in zakaj točno mehanizem v principu ne more in zato tudi ne bo, nikoli dosegel/presegel človeških sposobnosti.

Če tega ne znamo spacati danes, ni nikaršen dokaz ničesar.
100 let nazaj niso vedel niti kaj je atom, kaj šele atomska bomba. Pa je atomska možna v principu možna odkar obstja naše vesolje.
In je bila le vprašanje časa, kdaj se bo zgodila.
Zbogom in hvala za vse ribe

Okapi ::

Bom pa vesel, če mi bo kdo uspel pojasnit logično diht, kako in zakaj točno mehanizem v principu ne more in zato tudi ne bo, nikoli dosegel/presegel človeških sposobnosti
A kdo pravi kaj takega?

WarpedGone ::

145 strani
Zbogom in hvala za vse ribe

Okapi ::

Zelo slabo bereš. Če nekdo reče, da čez 20 let sigurno še ne bo protokola, to ne pomeni, da "mehanizem v principu ne more in zato tudi ne bo, nikoli dosegel/presegel človeških sposobnosti".

Zgodovina sprememb…

  • spremenil: Okapi ()

WarpedGone ::

Lahko reče tudi da jevoda mokra, pa celo zadevo in problem spremeni za 0.0.
Opletanje in zapletanje v nepomebne zadeve, ki s samo temo nimajo nič skupnega. Čisti dokaz da bistvo problema *ni* dojet.

A bo al ne bo AAI že obstajala čez 20 let al ne ... želel bi si, da še ne. Se bojim da 20 let ne bo sproduciralo dovolj briljantnih človeških umov, ki bodo dovolj omejili 'pravila igre', da bo rojsto AAI pomenilo novo dobo in ne konca.
Zbogom in hvala za vse ribe

Okapi ::

Tudi ta tvoj strah ni v resnici z ničemer dokazan. Je samo strah kot vsak drug strah, pred neznanim. Eni mu pravijo previdnost.;) Kot ni dokazano, da sta sploh mogoči dve vrsti umetne inteligence, varna in nevarna.

WarpedGone ::

145 strani and counting ...
Zbogom in hvala za vse ribe

Gaius ::

7982884e ::

donfilipo je izjavil:


In ja tudi Bostrom tudi približno ni našel trdnega odgovora na kako zazihrat da bo AGI benevolenten, ...niti Elizier Judkowski ne
zato ker sta oba filozofa. in verjetno nimata blage veze o tehnični implementaciji nečesa takega. in brez tega težko govorita karkoli na tej ravni.

pa tudi ne moreš reči, da je evil AI lažje za narest kot non-evil. zato ker noben ne ve, kako bi sploh karkoli naredil. čisto lahko bo, da bo edina praktična varianta taka, kjer bo AI zelo pasivna, bo v bistvu zelo inteligenten search engine, ki bo omogočala zelo podroben vpogled v njeno delovanje in bo glede tega "rogue ai" problema zelo ugodna in stabilna rešitev. search engine, ki mu daš za iskat zdravilo za raka, pa ti predstavi postopek, ki bi ga rad ubral pri tem; ta postopek ti potem potrdiš, stvar se pa pri tem itak drži svojih osnovnih pravil robotike. operater ima konstanten vpogled v predstavitev sveta in posledice vseh namer in vsak zametek neke višje, evil ideje, bi se videl. recimo.

ne rabi vsak AI bit ena ogromna gora od nevronske mreže, za katero noben nima blage veze, kaj se notri dogaja, in ki se jo spusti na plano in najprej par let čaka, da se kaj stori, potem se pa naenkrat začne premikat in premikat po svoje.

vostok_1 ::

Sej fanj, da je Thomas optimist, ampak protokola leta 2020...ne bo. Smo že z desno nogo v 2016. V 4 letih, da bi že imeli true AI...no chance. Tudi če popeterimo efforte od leta 2012 do 2015...bomo kvečjemu kak % bližje.

Moja napoved: 2025 - Siri/Cortana/... bo sposobna se odzivati na ukaze/vprašanja neke srednje težavnostne stopnje. Npr. "Cortana, kaj naj kupim sorodniku, ki zadnje leto vrgel v metal glasbo? Je pa tak malo bolj, zadržan človek. Nočem pa nekaj preveč kričečega."
Ali
"Siri, misliš, da bo kaj narobe, če rečem XXXYYY v mojem jutrišnjem govoru?"

Cybernetic implanti do tega leta, bodo kvečjemu kaki senzorji....napredne verzije tega kar imamo sedaj (vid, sluh, tip) ali gibalne naprave.

Šele leta 2040 pričakujem, da se bo vgrajevalo kompleksnejše nevro cyber-implante.

Leta 2060 pa bi IMO postalo nevarno ja. Takrat bomo imeli skoraj nerazločen, sicer še fejk, AI. Manjkal bo zgolj še tisti korak, preskok do prave zadeve.


And now for one of my favorite songs:

Zgodovina sprememb…

  • spremenil: vostok_1 ()

AtaStrudl ::

Ljudje imamo pac zelo "ljudocentricen" pogled na stvari, in si zelimo ljudem prijazno AI, ki nas bo popeljala v vecnost...

Ampak, homo sapiens ni ustvaril homo erectusu prijaznega okolja...

In homo erectus ni ustvaril avstralopiteku prijaznega okolja...

In tako nazaj!
(ne me zdaj drzat za pravilno zaporedje homotov in pitekov)

Torej, ce se stvar le ne bo izrodila v kak paperclip universe, bo cisto OK, tudi ce ne bo prostora za homo sapiense. Vazno, da bo neka oblika evolucije inteligence tekla naprej.
Moramo se pac nauciti AI gledati kot nase prave potomce, ki bodo podedovali nas svet.

Okapi ::

AtaStrudl je izjavil:

Ljudje imamo pac zelo "ljudocentricen" pogled na stvari, in si zelimo ljudem prijazno AI, ki nas bo popeljala v vecnost...

Ampak, homo sapiens ni ustvaril homo erectusu prijaznega okolja...

In homo erectus ni ustvaril avstralopiteku prijaznega okolja...

In tako nazaj!
(ne me zdaj drzat za pravilno zaporedje homotov in pitekov)

Torej, ce se stvar le ne bo izrodila v kak paperclip universe, bo cisto OK, tudi ce ne bo prostora za homo sapiense. Vazno, da bo neka oblika evolucije inteligence tekla naprej.
Moramo se pac nauciti AI gledati kot nase prave potomce, ki bodo podedovali nas svet.
Prva napaka, ko jo delaš, je predpostavka, da so Homo erectusi izumrli. Niso, v resnici so se postopno spremenili v Homo sapiense. Vrste so fiksne samo navidezno, ker imamo ljudje težave z dojemanjem zelo počasnih sprememb.

Druga napaka je, da predpostavljaš, da bo napredna AI razmišljala in ravnala podobno, kot so ravnali ljudje pred tisoč+ leti. Ljudje 21. stoletja namenjajo veliko denarja ohranjanju naravne raznovrstnosti. Prav nobenega znamenja ni, po katerem bi lahko sklepali, da bi nekdo, ki je še pametnejši od nas, ravnal drugače.

Pametna AI ni problem, probleme bi utegnila povzročati le neumna AI.

vostok_1 ::

Mene predvsem zanima kdo in kako bo sprožil to v tek. Ali bo to nekdo iz garaže, ali bo to Google ali kaka državna institucija.

V vsakem od teh primerov ne veš točno kaj boš dobil. In dobit mačka v žaklju je mnogo lažje kot obratno. Resda po drugi strani, kaj bodo tistemu, ki lahko ustvari poljubno novih ljudi, pravi, že obstoječi ljudje?
Seriously...he could easily just go in by himself in vse ostale pomlel kot gorivo. Če bo osamljen si bo pač naredil par novih prijateljev in to je to.

Škoda, da ni Thomasa, da bi to odgovoril. Namreč to je velika luknja v sistemu. Kaj ti bodo obstoječi ljudje, če lahko narediš carbon copije le-teh...with an added option, da jih lahko izklopiš ko jih ne rabiš.

Če bo to google...same šit. Makes no sense. A se bo interna grupica razvojnikov odločila, da vstopijo vsi not? A bodo vsi istočasno uploadani. A je kdo vmes dal kak backdoor?

Država? Haha...to bo totalen kompromitiran kaos.

Edina varjanta, bi bla...open source...kjer vsakdo si naredi svoj sistem. Bo pa temu sledila "7 millisecond war", kjer bo najboljši sistem prevladal.

To seveda govorim v primeru, da bo šlo za Upload v protokol, ne pa nek neodvisni AI. To je recimo spet druga varjanta. Naredit neodvisen AI in ga pol prosit, če ti lahko tak sistem pripravi, kjer bomo vsi dobrodošli.


Skratka...vse lepo diši, ampak bojim se da nekih logičnih izidov razen prevlade ene singularnosti/entitete...ni.

Vajenc ::

A ni vseeno kdo bo "obudil" AI, če bo ta sposobna samozavedanja in ne bo obremenjena s čustvi?

Se pravi najprej pride popolna AI (neodvisna in nepristranska) in šele nato protokol, ki bo, če bo tako, ustvarjen optimalno po vseh možnih izračunih za "dolg obstoj galaksije in dlje". Zato vprašanje, če bi se upload trenutnih ljudi sploh zgodil.

Če bo AI samo podaljšana roka človeka za človeka ta ne bo sposobna samozavedanja in lastnega odločanja, delovala bi glede na apetite raznih interesnih skupin, kar bi lahko v primeru protokala pripeljalo do več njegovih različic. Nobena različica pa ne bi bila tako "galaktično" popolna kot bi bila pri neodvisni AI.

Zelo verjetno se motim v razumevanju protokola in AI, ampak po trenutnem razumevanju se mi zdi to smiselno.
Not only is there no God, but try finding a plumber on Sunday.
Woody Allen

WarpedGone ::

AI ko se bo zgodila, bo novi apex predator, ki ga ne bo zanimala kri ampak energija.
Kaj bo njen primarni motiv? Hja, 100% odvisno od postulatov, ki jih bo dobila v 'gene'. Bomo mel precej sreče, če bomo sploh uspel skapirat, kaj je njen glavni cilj.
Kolk opice kapirajo, kaj se dogaja okoli njih in kakšne namene imamo z njimi?
Še največ šans bomo mel, če AI ne bo ena ampak bo več sočasnih konkurenčnih, ki se bodo primarno ubadale ena z drugo, mi bomo pa dovolj nezanimivi da bo škoda resursov, ki bi se porabili za nas. Tko nam bodo ostale razne niše, kamor se bomo lahko zavlekli in se izogibali radarju.

Upanje, da bo prijazna AI prišla pred zlobno, je prazno.
Zlobna Ai ni zlobna, le vseeno ji je za nas. Za nas je rezultat enak kot če bi bla res zlobna.
Zbogom in hvala za vse ribe

Okapi ::

Vajenc je izjavil:

A ni vseeno kdo bo "obudil" AI, če bo ta sposobna samozavedanja in ne bo obremenjena s čustvi?

Se pravi najprej pride popolna AI (neodvisna in nepristranska) in šele nato protokol, ki bo, če bo tako, ustvarjen optimalno po vseh možnih izračunih za "dolg obstoj galaksije in dlje". Zato vprašanje, če bi se upload trenutnih ljudi sploh zgodil.
Kako vemo, da je mogoč obstoj inteligence brez čustev? Morda sta to dve neločljivo povezani stvari, dva vidika istega pojava.

Okapi ::

WarpedGone je izjavil:

AI ko se bo zgodila, bo novi apex predator, ki ga ne bo zanimala kri ampak energija.
To je recimo ena za lase privlečena predpostavka, ki ne temelji na prav ničemer otipljivem. Če lahko sklepamo po človeški inteligenci (in drugega primera, po katerem bi lahko karkoli sklepali, niti nimamo), inteligenca bolj teži k hedonizmu kot čemurkoli drugemu. Razmnoževanje je recimo nagon, ki je obratno sorazmeren z inteligenco. Za nasilje velja prav enako.

O.

SambaShare ::

WarpedGone je izjavil:

Kaj bo njen primarni motiv? Hja, 100% odvisno od postulatov, ki jih bo dobila v 'gene'. Bomo mel precej sreče, če bomo sploh uspel skapirat, kaj je njen glavni cilj.


Glavni motiv AI-ja bo jasen, saj ji ga bo dal razvijalec. Zelo verjetno bo nekaj precej enostavnega v smislu izračunaj xy. Hudič bojo sekundarni cilji, ki si jih bo AI zastavila, da pride do glavnega cilja. Tu je tudi največja nevarnost, dovolj zmogljiv AI brez problema predela celotno vesolje v velik računalnik, zato da izračuna PI na x decimalk. Zelo verjetno je tudi da prvi primarni cilj, ki ga bo dobila AI bo enostaven, ker kakšne višje cilje težko opišeš s programskimi jeziki.

Okapi je izjavil:

Če lahko sklepamo po človeški inteligenci (in drugega primera, po katerem bi lahko karkoli sklepali, niti nimamo)


Ne moremo in tudi ne smemo. Pričakovati da bo "sintetičen" AI karkoli podoben človeški inteligenci je neumnost. Zelo verjetno bo čisto alien in zaradi tega zelo nevaren ljudem.

Zgodovina sprememb…

Okapi ::

SambaShare je izjavil:

WarpedGone je izjavil:

Kaj bo njen primarni motiv? Hja, 100% odvisno od postulatov, ki jih bo dobila v 'gene'. Bomo mel precej sreče, če bomo sploh uspel skapirat, kaj je njen glavni cilj.


Glavni motiv AI-ja bo jasen, saj ji ga bo dal razvijalec. Zelo verjetno bo nekaj precej enostavnega v smislu izračunaj xy. Hudič bojo sekundarni cilji, ki si jih bo AI zastavila, da pride do glavnega cilja. Tu je tudi največja nevarnost, dovolj zmogljiv AI brez problema predela celotno vesolje v velik računalnik, zato da izračuna PI na x decimalk. Zelo verjetno je tudi da prvi primarni cilj, ki ga bo dobila AI bo enostaven, ker kakšne višje cilje težko opišeš s programskimi jeziki.

Okapi je izjavil:

Če lahko sklepamo po človeški inteligenci (in drugega primera, po katerem bi lahko karkoli sklepali, niti nimamo)


Ne moremo in tudi ne smemo. Pričakovati da bo "sintetičen" AI karkoli podoben človeški inteligenci je neumnost. Zelo verjetno bo čisto alien in zaradi tega zelo nevaren ljudem.
Inteligenca je inteligenca. Za nekaj, kar bi uničilo vesolje, da bi izračunalo pi na x decimalk, ni po nobeni definiciji mogoče reči, da je inteligentno. V resnici je grozno neumno.

Vajenc ::

Okapi je izjavil:

Kako vemo, da je mogoč obstoj inteligence brez čustev? Morda sta to dve neločljivo povezani stvari, dva vidika istega pojava.

Predvidevamo (o tej tematiki več ali manj to), da umetna inteligenca ne bo rabila fizične oblike, reprodukcije in posledično ljubezni, skrbi za bolečino, strahu za povečan adrenalin... Gojiti takšna čustva po nepotrebnem ni inteligentno, je zgolj poraba prostora in časa. Lahko, da bo videla, tako kot ljudje oz. širše, smisel v biodiverziteti, imo manj verjetno pa je, da bi kot nad inteligentna, samozavedajoča in neodvisna dajala prednost samo ljudem. Lahko pa tudi, kdo ve. Ljudje se ravno tako bolj zgražamo nad mučenjem in pobijanjem bolj inteligentnih živali, ampak to je zaradi čustev (empatija), ki jih AI verjetno ne bo potrebovala.
Not only is there no God, but try finding a plumber on Sunday.
Woody Allen

SambaShare ::

Okapi je izjavil:

Inteligenca je inteligenca. Za nekaj, kar bi uničilo vesolje, da bi izračunalo pi na x decimalk, ni po nobeni definiciji mogoče reči, da je inteligentno. V resnici je grozno neumno.


Mogoče s tvoje človeške perspektive. Za AI pa je važen njen glavni cilj in vse se podredi temu. Skrb za okolje ni noben faktor, dokler ne pride navzkriž s primarnimi ali sekundarnimi cilji.

Okapi ::

Predvidevamo (o tej tematiki več ali manj to), da umetna inteligenca ne bo rabila fizične oblike, reprodukcije in posledično ljubezni, skrbi za bolečino, strahu za povečan adrenalin... Gojiti takšna čustva po nepotrebnem ni inteligentno, je zgolj poraba prostora in časa.
Kot rečeno, za zdaj lahko samo ugibamo, da inteligenca in čustva nista dva vidika istega pojava, in ju je sploh mogoče ločiti. In tudi AI bo seveda potrebovala fizično obliko (procesorje, pomnilnike, senzorje ...)

Mogoče s tvoje človeške perspektive. Za AI pa je važen njen glavni cilj in vse se podredi temu. Skrb za okolje ni noben faktor, dokler ne pride navzkriž s primarnimi ali sekundarnimi cilji.
Kakšen glavni cilj? Inteligenca nima nobenega "glavnega cilja". Kakšen je tvoj "glavni cilj"? Inteligenca ni nerazumen bedak, ki slepo izvršuje ukaze. Je ravno nasprotno od tega.

O.

Zgodovina sprememb…

  • spremenil: Okapi ()

SambaShare ::

Okapi je izjavil:

Inteligenca ni nerazumen bedak, ki slepo izvršuje ukaze.


Seveda je. Inteligenca je orodje za reševanje problemov. Kako jo uporabljaš in kakšnim zavedanjem je pa drugo vprašanje. Kar ti razumeš pod inteligenca je v resnici "človeška inteligenca", kjer je v paketu še samozavedanje, empatija, ipd.

Okapi ::

Inteligenca je orodje za reševanje problemov. Kako jo uporabljaš in kakšnim zavedanjem je pa drugo vprašanje. Kar ti razumeš pod inteligenca je v resnici "človeška inteligenca", kjer je v paketu še samozavedanje, empatija, ipd.
Inteligenca niti slučajno ni samo "orodje za reševanje problemov". Če imaš ti neko izmišljeno definicijo inteligence, je to tvoj problem, prav inteligentno pa to v resnici ni.

Inteligenca je prej orodje za odkrivanje problemov.

Superduper računalniku, ki bi mu ukazal, naj izračuna pi najbolj natančno, kar je mogoče, in bi šel zaradi tega uničevat vesolje, niti slučajno ne moreš reči AI (če I pomeni inteligenco).

Prava AI, ki bi ji rekel, naj izračuna pi najbolj natančno, kar je mogoče, bi ti povedala, da je to brezveze, ker že zdaj poznamo pi bolj natančno, kot to kdorkoli zares potrebuje, in je vsak nadaljni trud v tej smeri neumnno zapravljanje časa, truda in ostalih virov.

Prava inteligenca bi odkrila problem v nesmiselnem ukazu. Tisto, kar bi šlo slepo izvrševat kakršenkoli ukaz, niti slučajno ni inteligenca.

O.

Zgodovina sprememb…

  • spremenil: Okapi ()

SambaShare ::

Zdaj že operiraš z izrazom "prava AI". In ravno tu je hec, veliko lažje ne narediti po tvoje "neumno AI", kot pa "pravo AI". In tu je največja nevarnost. Samo po tvoje "neumne AI" najbrž sploh ne more biti.
««
145 / 182
»»