» »

Tema o umetni inteligenci

Tema o umetni inteligenci

1
2
3

donfilipo ::

No drži. Ko pa AI bo to znal...bo pa lahko glede na priročen test vliv ekstrakt tez direkt vate8-)...brez običajnega reduntantnega pleteničenja...ki ga imajo profiji zaradi plačanosti na polo, ...amaterji ga pa imamo, ker se radi zapletemo ko mutav na telefonu8-)
In times of Universal Deceit, telling the truth
becomes revolutionary act. Orwell

vostok_1 ::

Saj zato sem rekel, da je "umetnost" le zbrirka realnih izkušenj. Namreč poznam človeka, ki je totalni glasbeni analfabet in njemu dejansko glasba nič ne sporoča. Niti se ne zna vživet vanjo. On bi najbrž na takem testu padel.

sensei ::

Ko pa AI bo to znal...

Mam občutek, da se nihče iz področja AI ne ukvarja resno s tako irelevantnimi problemi. Že pri človeku ni nič neznanega pri tem kako opisuje poznano.

donfilipo ::

Problem ni irelevanten, ker prinese, če ne drugega, profit. Električni filozof, ki te uči po cele noči in tolaži, svetuje, pa je zraven še hudičevo res pameten, je dober produkt. Poizkusi ala Siri...pa samo začasni trik (marketinški)...ampak z svetim namenom.
In times of Universal Deceit, telling the truth
becomes revolutionary act. Orwell

Zgodovina sprememb…

  • spremenilo: donfilipo ()

sensei ::

Električni filozof, ki te uči po cele noči in tolaži

Hehe, ja super, ampak od prepoznave in opisa vsebine slike, pa do učenja hjumanov je še nekaj dela, se mi zdi :)

donfilipo ::

Ja komunizam neče tako brzo doči. Do tad treba učiti, učiti i učiti. A bogami i radiiti8-)
In times of Universal Deceit, telling the truth
becomes revolutionary act. Orwell

donfilipo ::

Malo off topic je pa vseeno psihologija.

Pozornejši boste opazili, da sem nemara imel napačnega idola. 8-)
Če bi me ata tepel s kladivom po tintari,...ne bi prišel toliko do izraza8-) Tako pa....

No vseeno..ena skrita benevolenca je pa nekako se prištulila v mene...skupaj s cinizmom in ironijo, ki tudi na polju AI ne škodi.
In times of Universal Deceit, telling the truth
becomes revolutionary act. Orwell

nevone ::

Pač ok, to je res. Za laganje je ponavadi potrebna zadaj neka agenda. In upam, da ne bi imeli takega UIja...vsaj ne v osnovi. Lahko pa seveda imaš generirane značaje, od katerih je en patološki lažnjivec...ampak osnova pa mora vedno biti realna in objektivna.


Tako je.

o+ nevone
Either we will eat the Space or Space will eat us.

innerspace ::

vostok 1>..Za laganje je ponavadi potrebna zadaj neka agenda... osnova pa mora vedno biti realna in objektivna.

Let's hope so.
Izkusnje z ljudmi pravijo, da ima potreba po prezivetju takega organizma prioriteto pred izrazanjem resnice, laz ali zavajanje vcasih olajsa in omogoca obstoj nekega ugodnega stanja.
Verjamem, da si vecini ni tezko zamisliti AIja, ki lastnemu obstoju daje prednost pred clovekovim, posledice take teznje komot oblikujejo neko "agendo", ki dopusca laz za nek benefit.

Laz je tako le neko evoluirano orodje.
Donate BTC here: 35KR84u3rXN3in1kCw9YHRz4WF3r5kfFF4

nevone ::

Izkusnje z ljudmi pravijo, da ima potreba po prezivetju takega organizma prioriteto pred izrazanjem resnice, laz ali zavajanje vcasih olajsa in omogoca obstoj nekega ugodnega stanja.


Seveda, človek je bil očitno prisiljen razviti laž. Ampak za UI je to balast, ki jo samo ovira pri učinkovitosti.

o+ nevone
Either we will eat the Space or Space will eat us.

Vajenc ::

nevone je izjavil:

Seveda, človek je bil očitno prisiljen razviti laž. Ampak za UI je to balast, ki jo samo ovira pri učinkovitosti.

o+ nevone

Mogoče balast pri preračunavanju. Sicer pa bo AI, ki si ne bo lagal, da svet nujno potrebuje ljudi, iztrebil to "zaostalo in škodljivo" vrsto.
Not only is there no God, but try finding a plumber on Sunday.
Woody Allen

nevone ::

Sicer pa bo AI, ki si ne bo lagal, da svet nujno potrebuje ljudi, iztrebil to "zaostalo in škodljivo" vrsto.


Zakaj bi sploh imeli ambicijo zdizajnirati takšen AI?

o+ nevone
Either we will eat the Space or Space will eat us.

Vajenc ::

nevone je izjavil:

Sicer pa bo AI, ki si ne bo lagal, da svet nujno potrebuje ljudi, iztrebil to "zaostalo in škodljivo" vrsto.


Zakaj bi sploh imeli ambicijo zdizajnirati takšen AI?

o+ nevone

Brez takih ambicij bo s pravimi varovalkami ob izidu. Kasneje se bo sam dizajniral. Kar je tudi smisel tako pametne naprave.
Not only is there no God, but try finding a plumber on Sunday.
Woody Allen

nevone ::

Kasneje se bo sam dizajniral.


Lahko mu daš povsem proste roke, ni pa nujno sploh pa ne pametno. Neke osnovne okvire delovanja mu moraš dati.

Tudi naročnik gradnje hiše da izvajalcu osnovne okvire, kaj želi imeti zgrajeno. Potem pa izvajalec dela v okviru svojega znanja, za katerega recimo naročnik ni usposobljen. Ali mu bo zdaj zgradil podrtijo samo zato, ker je pametnejši v tem smislu? Zagotovo ne. Morda smo po nesreči lahko stori kakšno napako. Ampak če ima dovolj dobrega znanja je to zelo malo verjetno.

o+ nevone
Either we will eat the Space or Space will eat us.

Vajenc ::

nevone je izjavil:

Kasneje se bo sam dizajniral.


Lahko mu daš povsem proste roke, ni pa nujno sploh pa ne pametno. Neke osnovne okvire delovanja mu moraš dati.

Tudi naročnik gradnje hiše da izvajalcu osnovne okvire, kaj želi imeti zgrajeno. Potem pa izvajalec dela v okviru svojega znanja, za katerega recimo naročnik ni usposobljen. Ali mu bo zdaj zgradil podrtijo samo zato, ker je pametnejši v tem smislu? Zagotovo ne. Morda smo po nesreči lahko stori kakšno napako. Ampak če ima dovolj dobrega znanja je to zelo malo verjetno.

o+ nevone

Se zgodi, da izvajalec (poizvajalec od podizvajalca) nalašč naredi prepoceni, prehitro in premalo kvalitetno, zato ker ve, da bo to ugotovil šele naročnik (ne vodja gradbišča npr.) po letih uporabe. Podpodizvajalec redko odgovarja, tudi, če je zadeva odkrita v garancijskem roku. Zato s tem nategne podizvajalca, glavnega izvajalca, naročnika in obstoječo zakonodajo (varovalka).
Not only is there no God, but try finding a plumber on Sunday.
Woody Allen

nevone ::

Se zgodi, da izvajalec (poizvajalec od podizvajalca) nalašč naredi prepoceni, prehitro in premalo kvalitetno, zato ker ve, da bo to ugotovil šele naročnik (ne vodja gradbišča npr.) po letih uporabe. Podpodizvajalec redko odgovarja, tudi, če je zadeva odkrita v garancijskem roku. Zato s tem nategne podizvajalca, glavnega izvajalca, naročnika in obstoječo zakonodajo (varovalka).


Tole je tako za lase privlečeno, da glava peče.

Sploh pa nisi doumel bistva. Naloga UI je, da deluje konstruktivno v našo korist, ne destruktivno. Če mu mi damo smernice. Če ga pa prepustimo samemu sebi ... potem pa ja ... je mogoče vse.

o+ nevone
Either we will eat the Space or Space will eat us.

Vajenc ::

nevone je izjavil:

Se zgodi, da izvajalec (poizvajalec od podizvajalca) nalašč naredi prepoceni, prehitro in premalo kvalitetno, zato ker ve, da bo to ugotovil šele naročnik (ne vodja gradbišča npr.) po letih uporabe. Podpodizvajalec redko odgovarja, tudi, če je zadeva odkrita v garancijskem roku. Zato s tem nategne podizvajalca, glavnega izvajalca, naročnika in obstoječo zakonodajo (varovalka).


Tole je tako za lase privlečeno, da glava peče.

Sploh pa nisi doumel bistva. Naloga UI je, da deluje konstruktivno v našo korist, ne destruktivno. Če mu mi damo smernice. Če ga pa prepustimo samemu sebi ... potem pa ja ... je mogoče vse.

o+ nevone

Ni za lase privlečeno. Delam za gradbeništvo, zato so mi takšne zgodbe poznane iz blizu.

Jasno mi je tudi, da je poslanstvo pri razvoju IU konstruktivnost, sicer bi bila tudi sredstva vprašljiva, ali pa vsaj njihov izvor. Jasno pa bi moralo biti tudi to, da se bo razvoj tako pametnega programa po splavitvi prepustilo naključnemu vnaprej usmerjenemu razvoju (verjetno podobno, kot si je Thomas zamislil Critticall), ker nadaljnjega razvoja človeška pamet enostavno ne bo zhendlala.
Not only is there no God, but try finding a plumber on Sunday.
Woody Allen

jype ::

Okapi> Predvsem se nam tako zdi, ker ne vemo, kako delujejo.

Vemo, da so šlampast stroj, ker znamo izmeriti, kako zelo nenatančno delujejo.

O tem, na kakšen način delujejo, pa seveda še ne vemo dovolj. Računalnik je kljub temu bistveno drugačne vrste naprava.

nevone ::

Jasno pa bi moralo biti tudi to, da se bo razvoj tako pametnega programa po splavitvi prepustilo naključnemu vnaprej usmerjenemu razvoju (verjetno podobno, kot si je Thomas zamislil Critticall), ker nadaljnjega razvoja človeška pamet enostavno ne bo zhendlala.


Motivi ne smejo biti prepuščeni naključju. Naključje se uporablja samo v namen razvoja načina dosega motiva.

Critticall na področje motivov ne posega. Je zgolj orodje za optimizacijo algoritmov bodisi v smislu hitrosti ali enostavnosti.

o+ nevone
Either we will eat the Space or Space will eat us.

Okapi ::

Ampak za UI je to balast, ki jo samo ovira pri učinkovitosti.
Za tako, ki se zaveda same sebe, in mora obstajati v resničnem svetu, se pravi tako ali drugače sodelovati z ljudmi (da je recimo ne odklopijo od elektrike), to nikakor ni nujno.

Zakaj bi sploh imeli ambicijo zdizajnirati takšen AI?
Vprašanje, če bo to, kako bomo mi "dizajnirali" AI, imelo absoluten vpliv na to, kakšna bo AI po nekaj letih obstoja (in razvoja, na katerega mi ne bomo imeli več dosti vpliva).

Evolucija je tudi "zdizajnirala" človeka samo tako, da bi bil malo uspešnejši od avstralopitekov v savani, in evo, kaj je ratalo.>:D

Se zgodi, da izvajalec (poizvajalec od podizvajalca) nalašč naredi prepoceni, prehitro in premalo kvalitetno,
Še precej večkrat se zgodi, da se preprosto zmoti. Ti mu naročiš, naj naredi trden most, most se pa čez par let podre. Stvari je težko delati 100% varno in pri načrtovanju varovalke za AI se napaka lahko prikrade na dveh straneh - lahko jo ljudje vgradijo premalo varno, lahko pa tudi AI kasneje naredi napako in varovalke ne upošteva.

Naloga UI je, da deluje konstruktivno v našo korist, ne destruktivno
Tudi za AI velja, da je pot v pekel tlakovana z dobrimi nameni. Morda bo nekaj naredila z namenom nam koristiti, pa bo pri tem naredila napako in se bo čez čas izkazalo, da je odločitev usodna za človeštvo.


O.

nevone ::

Tudi za AI velja, da je pot v pekel tlakovana z dobrimi nameni.


Z slabimi nameni je pot v pekel zagotovljena, z dobrimi je zgolj možna v primeru, da jih kombiniraš s slabimi.

o+ nevone
Either we will eat the Space or Space will eat us.

innerspace ::

Kot pravi Okapi, evolucija AIja se bo dogajala mimo dolocil in ambicij, ki jih predvidi stvaritelj.
Izolacija je nujna za preprecitev za nas nezeljenih scenarijev, ce(ko) se en clen ali "maticna celica" AIja celica prekopira in uide omejenemu nadzoru, je nemogoce verjeti, da bodo varovala se naprej upostevana.
Override zacetnih dolocitev je tako po svoje pricakovan v vsakem scenariju, ko se AI zave moznosti, da jo manj sposobno bitje lahko nekega dne ugasne.
Donate BTC here: 35KR84u3rXN3in1kCw9YHRz4WF3r5kfFF4

nevone ::

Kot pravi Okapi, evolucija AIja se bo dogajala mimo dolocil in ambicij, ki jih predvidi stvaritelj.


To pravi Okapi, ja. Pa ti izgleda tudi. Pa še kdo. Jaz ne.

o+ nevone
Either we will eat the Space or Space will eat us.

SimplyMiha ::

Recimo, da en zafrustiran a talentiran programer spiše AI, ki bi delovala v njegovo korist tako, da bi v njegovem imenu zasužnjila celotno človeštvo. Potem se stegne. Kaj zdaj?

Okapi ::

Fantazijskih scenarijev je poljubno mnogo. Morda bodo AI prvi razvili na severnokorejskem inštitutu za umetno inteligenco in napredek džuče. Ali pa se bo naenkrat internet zavedel samega sebe.

O.

nevone ::

Recimo, da en zafrustiran a talentiran programer spiše AI, ki bi delovala v njegovo korist tako, da bi v njegovem imenu zasužnjila celotno človeštvo. Potem se stegne. Kaj zdaj?


We are doomed.

o+ nevone
Either we will eat the Space or Space will eat us.

innerspace ::

nevone je izjavil:

Jaz ne.

o+ nevone


Kako lahko predvidis obseg razvoja AIja, ce ga ne uspes nadzirati ali imeti instantnega vpogleda v njegovo evolucijo? Na kaksen nacin zagotoviti nadzor, ce je ne uspes spremljati?
Si predstavljam nek lower level AI za nadzornika, ampak do kod lahko to sega?
...morda pa precej napacno razmisljam o problemu, who knows.
Donate BTC here: 35KR84u3rXN3in1kCw9YHRz4WF3r5kfFF4

Zgodovina sprememb…

nevone ::

Predvsem je potrebno najprej začeti razmišljati tako, da nočemo, da je AI neka samosvoja entiteta, ki ne dela nam v korist. Češ, da če je dovolj pametna, itak začne delat v škodo človeka, ker se človek itak ne ceni do te mere, da si zasluži živeti. Problem je še vedno zgolj filozofski a zaradi tega nič manj pomemben.

Ni nujno, da je dovolj pametna AI naperjena proti človeštvu. To je lahko razmišljanje za kakšen ZF film ali pa v namene preprečevanja da se to v resnici res ne zgodi, ampak za dejanski design UI je pa to premalo. Obvezno rabiš še konstruktivni del.

Dovolj pametna UI ima komot za motiv povsem blagodejne učinke za človeka, ne da bi pri tem morala škoditi sebi. Filozofija da mora nekdo imeti minus, da ima drugi lahko plus se tu pač ne more zasledovati.

o+ nevone
Either we will eat the Space or Space will eat us.

Okapi ::

Problem je, če ne veš, kaj bo. Morda je 99% možnosti, da nam bo AI vsestransko koristila. Smo pripravljeni sprejeti 1% tveganja, da nas bo zasužnjila, strpala v rezervat ali izbrisala?

Zgodovina sprememb…

  • spremenil: Okapi ()

Vajenc ::

Če govorimo o viziji nas ima verjetno večina v mislih UI, ki se bo zavedala sama sebe in s tem tudi njene superiornosti. Če pa govorimo o UI, kot jo že sedaj uporabljajo za avtomatizacijo procesov, zmagovanje na kvizih itd., pa lahko govorimo, da bo takšna tehnologija vedno služila le tako, kot jo bomo skonstruirali ljudje.
Not only is there no God, but try finding a plumber on Sunday.
Woody Allen

nevone ::

Smo pripravljeni sprejeti 1% tveganja, da nas bo zasužnjila, strpala v rezervat ali izbrisala?


Pripravljeni smo razmišljati, kako jo dizajnirati, da se ta procent zmanjša praktično na 0.

o+ nevone
Either we will eat the Space or Space will eat us.

Vajenc ::

nevone je izjavil:

Smo pripravljeni sprejeti 1% tveganja, da nas bo zasužnjila, strpala v rezervat ali izbrisala?


Pripravljeni smo razmišljati, kako jo dizajnirati, da se ta procent zmanjša praktično na 0.

o+ nevone

Vse kombinacije, da bi kaj lahko šlo narobe bo verjetno znala izračunati šele polno delujoča UI.
Not only is there no God, but try finding a plumber on Sunday.
Woody Allen

nevone ::

Vse kombinacije, da bi kaj lahko šlo narobe bo verjetno znala izračunati šele polno delujoča UI.


UI mora biti notranje koherentna, da bi lahko čim učinkoviteje preprečevala nevarnosti zunanjih dejavnikov.

o+ nevone
Either we will eat the Space or Space will eat us.

Vajenc ::

nevone je izjavil:

Vse kombinacije, da bi kaj lahko šlo narobe bo verjetno znala izračunati šele polno delujoča UI.


UI mora biti notranje koherentna, da bi lahko čim učinkoviteje preprečevala nevarnosti zunanjih dejavnikov.

o+ nevone

Kako to misliš notranje koherentna? Podatki med sabo? In tudi, če prepreči nevarnosti zunanjih dejavnikov, s čim garantiraš, da si UI ne bo izmislila kaj svojega, potencialno nevarnega človeštvu, gruči ljudi, posameznikom? 1.zakon robotike, avtorizacija človeka pri njeni evoluciji, kontrola transhumanistov, ki jo bodo edini zmogli razumeti in slediti pri novih odkritjih...?
Not only is there no God, but try finding a plumber on Sunday.
Woody Allen

Zgodovina sprememb…

  • spremenilo: Vajenc ()

Oki ::

nevone je izjavil:

Smo pripravljeni sprejeti 1% tveganja, da nas bo zasužnjila, strpala v rezervat ali izbrisala?


Pripravljeni smo razmišljati, kako jo dizajnirati, da se ta procent zmanjša praktično na 0.

o+ nevone

Stvar je podobna. kot pri današnjih računalnikov. Kdo si upa reči, da ima bolj "priden" računalnik od sosedovega? Ali bolj "žleht"? Če računalnik nima podatkov, kako biti žleht, je lahko še tako napreden in to ne bo. Stvar je v človeku, ki takšen računalnik upravlja. Danes je bistvena resnica. Kaj je res, in kaj ni. 2+2 je vedno štiri. In vedno bo. Ne glede na inteligenxo ali naprednost AI.

sheeshkar ::

Vajenc je izjavil:

nevone je izjavil:

Seveda, človek je bil očitno prisiljen razviti laž. Ampak za UI je to balast, ki jo samo ovira pri učinkovitosti.

o+ nevone

Mogoče balast pri preračunavanju. Sicer pa bo AI, ki si ne bo lagal, da svet nujno potrebuje ljudi, iztrebil to "zaostalo in škodljivo" vrsto.

Zakaj bi nas iztrebil(a)? AI bi ustvarili z razlogom, da pomaga nam kot vrsti, ne svetu (ali naravi). Nevem zakaj bi kar naenkrat AI postal(a) eko-terorist in začel iztrebljati človeštvo (konec koncev smo tudi mi del tega sveta/narave).

Tudi če bi prišel(prišla) do zaključka, da nas več ne potrebuje za svoje preživetje, ne bi imelo nobenega smisla, da nas iztrebi, saj bi zanj (zanjo) bili na enaki ravni kot ostala živa bitja (preneumni, da ga (jo) lahko uničimo).

Okapi ::

UI mora biti notranje koherentna,
A ni Goedel dokazal, da je to v bistvu nemogoče?;)

Vajenc ::

sheeshkar je izjavil:


Zakaj bi nas iztrebil(a)? AI bi ustvarili z razlogom, da pomaga nam kot vrsti, ne svetu (ali naravi). Nevem zakaj bi kar naenkrat AI postal(a) eko-terorist in začel iztrebljati človeštvo (konec koncev smo tudi mi del tega sveta/narave).

Tudi če bi prišel(prišla) do zaključka, da nas več ne potrebuje za svoje preživetje, ne bi imelo nobenega smisla, da nas iztrebi, saj bi zanj (zanjo) bili na enaki ravni kot ostala živa bitja (preneumni, da ga (jo) lahko uničimo).

Če bi vedeli zakaj bi nas želel ubiti bi to seveda znali preprečiti. Ne vem, lahko dojame, da ljudje porabimo preveč resursov glede na učinek, pa nas nuka vse. Lahko se prepriča, da so favele rak Rio de Janeira, pa nuka samo njih za dobro človeštva ali pa vsaj Ria. Lahko ti v skrbi za tvoje zdravje, zaklene vrata gorečega stanovanja v katerem so še vedno tvoji otroci. In tako naprej.
Not only is there no God, but try finding a plumber on Sunday.
Woody Allen

nevone ::

Tudi če bi prišel(prišla) do zaključka, da nas več ne potrebuje za svoje preživetje, ne bi imelo nobenega smisla, da nas iztrebi, saj bi zanj (zanjo) bili na enaki ravni kot ostala živa bitja (preneumni, da ga (jo) lahko uničimo).


Če bi imela edini motiv, da sama preživi, potem ne bi bilo vzvoda, ki bi preprečeval, da nas uniči. Prav gotovo bi se nekega dne pojavili na seznamu, kjer bi nas pretvorila v tisto, kar rabi za svoje preživetje.

o+ nevone
Either we will eat the Space or Space will eat us.

vostok_1 ::

Če bi bila ekspanzionistična, bi nas uničila. Tistih v povprečju 70kg mase (voda+ suha snov)* 7 miljard bi ji še prav prišla.

Zgodovina sprememb…

  • spremenil: vostok_1 ()

nevone ::

Če bi bila ekspanzionistična, bi nas uničila.


Ekspanzionistična mora v vsakem primeru biti. Ampak to ni zadosten pogoj za uničenje človeka.

Tistih v povprečju 70kg mase (voda+ suha snov) bi še prav prišla.


Saj v tem primeru ne bi za pomašinat iskala zgolj ljudi, ampak bi nas pomašinala verjetno v kompletu s še čim. Tako kot mi ne gremo odstranjevat zgolj mravelj, ko se odločimo preurejat neko področje.

o+ nevone
Either we will eat the Space or Space will eat us.

Zgodovina sprememb…

  • spremenila: nevone ()

sheeshkar ::

nevone je izjavil:

Tudi če bi prišel(prišla) do zaključka, da nas več ne potrebuje za svoje preživetje, ne bi imelo nobenega smisla, da nas iztrebi, saj bi zanj (zanjo) bili na enaki ravni kot ostala živa bitja (preneumni, da ga (jo) lahko uničimo).


Če bi imela edini motiv, da sama preživi, potem ne bi bilo vzvoda, ki bi preprečeval, da nas uniči. Prav gotovo bi se nekega dne pojavili na seznamu, kjer bi nas pretvorila v tisto, kar rabi za svoje preživetje.

o+ nevone

Bolj logično bi bilo, da bi za dosego nekih lastnih (sebičnih?) ciljev sodelovala s človeštvom, kot da nas poskuša iztrebiti in tvegati tisti promil možnosti, da jo uspemo izklopiti. Konec koncev bi bila za sodelovanje s človeštvom (v prid človeštvu) tudi ustvarjena. Možnosti za Matrix scenarij, kjer bi ljudje bili baterije, je pa vsaj po mojem mnenju zelo malo (glede na naravne vire, ki bi jih AI v sodelovanju s človeštvom lahko uspel izkoristiti tudi za svoje interese).

nevone ::



Ekspanzionistična mora v vsakem primeru biti. Ampak to ni zadosten pogoj za uničenje človeka.


Hja, hočem rečt, ni dovolj da je zgolj ekspanzionistična, da bi ohranila človeka.

o+ nevone
Either we will eat the Space or Space will eat us.

nevone ::

Konec koncev bi bila za sodelovanje s človeštvom (v prid človeštvu) tudi ustvarjena.


Seveda, tega motiva ji ne bi smeli pustiti spreminjati.

Ker tukaj se stalno ponavlja isti vzorec, da če bo dovolj pametna, ga bo itak spremenila. Lahko je zelo pametna, pa ga kljub temu ne bo spremenila, ker se bo morala držat nekega osnovnega protokola. Sicer nismo naredili nič. Če bo človek dizajniral prihodnji svet, potem mora predvsem vedeti, česa si želi in UI mora biti samo orodje, ki te želje izpolni.

o+ nevone
Either we will eat the Space or Space will eat us.

Okapi ::

Tole si sedaj napisala, kot da je človek en sam. A si sigurna, da boste neoliberalci zadovoljni, če bo protokol pisal socialist?>:D

O.

nevone ::

Tole si sedaj napisala, kot da je človek en sam. A si sigurna, da boste neoliberalci zadovoljni, če bo protokol pisal socialist?


Neumno vprašanje. O tem se je pač treba zmenit. Tekmovanje za osnovno preživetje takrat itak odpade, tako da je treba nivo sporazumevanja dvigniti na višjo raven.

Če se pa nismo v stanju zmenit, kaj želimo v takem primeru, bomo bodisi ujeti v stare spone za vekomaj, ali pa bo nekdo/nekaj naredil/o stvar po svoji podobi.

o+ nevone
Either we will eat the Space or Space will eat us.

driver_x ::

Oprostite ker motim, toda, ali ni to tema o umetni inteligenci?

nevone ::

driver_x je izjavil:

Oprostite ker motim, toda, ali ni to tema o umetni inteligenci?


Je, zakaj vprašaš?

o+ nevone
Either we will eat the Space or Space will eat us.

driver_x ::

Zato ker vaša, sicer zanimiva debata nima nobene veze z umetno inteligenco.

Zgodovina sprememb…

  • spremenil: driver_x ()

Vajenc ::

UI je širok pojem. Ni vse v robotiki. UI ima med drugim tudi cilj nadgraditi človeško inteligenco. Ti, ki bolj razmišljaš o UI, kot je trenutno na voljo, te to morda moti, ampak veliko znanosti glede UI se usmerja ravno v posnemanje človeške inteligence. Kar se ujema s samim imenom kot tudi s prej omenjenim ciljem. Pa še domišljijo nam vzdraži ;)
Not only is there no God, but try finding a plumber on Sunday.
Woody Allen
1
2
3


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Epidemijo koronavirusa prva napovedala umetna inteligenca (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
7518250 (13619) Phantomeye
»

Strah pred umetno inteligenco je odveč (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
5914748 (12532) Cange
»

Zadnja priložnost za človeštvo v goju (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
5019987 (18099) jype
»

Razvoj umetne inteligence v polnem zamahu (strani: 1 2 3 )

Oddelek: Novice / Znanost in tehnologija
14321229 (18055) Jst

Več podobnih tem