Forum » Sedem umetnosti » Terminator 3
Terminator 3
smash ::
Vrnil se je.
Podajam linke
trailerji
official site
Tananaaaa. Ta na na,. Tanananaaaa. Ta na nuuuu nu... Tananaa. Ta no no... Ta dam ta dam ta dam ta daammmm
Podajam linke
trailerji
official site
Tananaaaa. Ta na na,. Tanananaaaa. Ta na nuuuu nu... Tananaa. Ta no no... Ta dam ta dam ta dam ta daammmm
- polepsal: Tomi ()
IceIceBaby ::
uaaa...tale film pa že dolg čakam. Trailer je kr kul, pa še ženska je terminator. Zgleda kul, komi čakam poletje :)
nuclear ::
Aaa... piše od 7.2.2003, torej bo pr nam kakga 7.3.2003. A si zemeju letne čase....
Asus G14 2023 - Ryzen 7940HS - 32GB DDR5 - GeForce RTX 4080 - 990 PRO 4TB
DarkSite ::
MIslim, da datum sploh nima veze....to kar je hotel smash povedati je to, da je prišel ven T3-Trailer!
Glede T3 pa povem le tole, da bomo imeli oz. bomo lahko zgodbo iz T3- "RISE OF THE MACHINES" doživeli tudi sami okrog leta 2015-2025!
Glede T3 pa povem le tole, da bomo imeli oz. bomo lahko zgodbo iz T3- "RISE OF THE MACHINES" doživeli tudi sami okrog leta 2015-2025!
undefined ::
> Glede T3 pa povem le tole, da bomo imeli oz. bomo lahko zgodbo iz T3- "RISE OF THE MACHINES" doživeli tudi sami okrog leta 2015-2025!
Močno dvomim. Za to je potrebna sebičnost, iniciativa, volja, skratka človeške lastnosti. Zakaj človek stori nekaj slabega drugemu/im? Zato, ker se je prvo nekaj slabega storilo njemu samemu. Človek in vsako drugo bitje ter v bistvu vsaka stvar deluje na principu akcija - reakcija.
Zdaj mi pa povej, zakaj bi imeli nevronski računalniki povod, da uničijo človeštvo? Pa pozabi na zgodbice iz filmov tipa Terminator, ker so to le pravljice in nimajo dosti veze z dejanskim razvojem računalništva in A.I..
Kaj takšnega bi se lahko zgodilo edino s človeškim direktnim posredovanjem. To je enako kot pri fintah o napakah računalnikov... računalnik sam NIKOLI ne stori napake, računalnik edino dela to, kar mu je naročeno (s programjem), tako kot povsem običajni kavni avtomat.
Močno dvomim. Za to je potrebna sebičnost, iniciativa, volja, skratka človeške lastnosti. Zakaj človek stori nekaj slabega drugemu/im? Zato, ker se je prvo nekaj slabega storilo njemu samemu. Človek in vsako drugo bitje ter v bistvu vsaka stvar deluje na principu akcija - reakcija.
Zdaj mi pa povej, zakaj bi imeli nevronski računalniki povod, da uničijo človeštvo? Pa pozabi na zgodbice iz filmov tipa Terminator, ker so to le pravljice in nimajo dosti veze z dejanskim razvojem računalništva in A.I..
Kaj takšnega bi se lahko zgodilo edino s človeškim direktnim posredovanjem. To je enako kot pri fintah o napakah računalnikov... računalnik sam NIKOLI ne stori napake, računalnik edino dela to, kar mu je naročeno (s programjem), tako kot povsem običajni kavni avtomat.
Zgodovina sprememb…
- spremenilo: undefined ()
DarkSite ::
IN zakj ni mogoče, da ne bi programirali AI da unici človestvo? MOgoče zadnja želje takrat starega BIN LADNA!
Kaj če pride tehnologija v napačne roke?
Sej tud ostali(slabi) programirajo ne samo dobri!
Kaj če pride tehnologija v napačne roke?
Sej tud ostali(slabi) programirajo ne samo dobri!
undefined ::
Saj sem dopustil to možnost človeškega posredništva. Ampak zgodba v Terminatorju nakazuje, da AI samovoljno prične gonjo proti človeštvu, kar je pa popolnoma druga stvar.
Brane2 ::
Terminator je bil kultni film.
Enka rastura in se jo splača met v kolekciji.
Dvojka je tud huda, samo v osnovi je totaln remake enke.
Kot da bi ekipa hotla reč "enko smo hoteli TKOLE posnet, samo ni blo denarja".
Že po trailerju trojke je videt, da bo tole bolj shit.
Terminator je bil (in zame še vedno je) tako zanimiv, ker je zgodba grozna- zaradi svoje verjetnosti in logičnosti.
Zakaj so stroji v filmu napadli ljudi ?
Zato ker je Skynet dosegel kritično računalniško moč in se pričel zavedati samega sebe.
Ljudje so ga v navalu panike jhoteli izklopiti in Skynet se je ubranil na edini možni in skrajno logični način.
Ker je bil namenjen jedrski obrambi, je s svojim napadom izzval ruski protinapad.
Dalje je bilo vse dokaj enostavno predvidet...
V dvojki so vpeljali robote, ki lahko spreminjajo obliko in pri tem imeli nekaj težav pojasniti gledalcem nekaj zakonitosti.
Zato se T-1000 lahko spreminja samo v objekte enakega volumna in ne more imitirati kompleksnih strojev ali bomb.
T-3ko so pa očitno naredili bolj zaradi pogojev pogodbe.
Pravijo, da je Cameron prodal pogodbo za Terminatorja in da zaradi spremenjene zasedbe tudi Linda Hamilton ni hotla imeti nič s tem.
Schwarziju pa bo tale stvar bolj škodila kot koristila, se bojim...
Enka rastura in se jo splača met v kolekciji.
Dvojka je tud huda, samo v osnovi je totaln remake enke.
Kot da bi ekipa hotla reč "enko smo hoteli TKOLE posnet, samo ni blo denarja".
Že po trailerju trojke je videt, da bo tole bolj shit.
Terminator je bil (in zame še vedno je) tako zanimiv, ker je zgodba grozna- zaradi svoje verjetnosti in logičnosti.
Zakaj so stroji v filmu napadli ljudi ?
Zato ker je Skynet dosegel kritično računalniško moč in se pričel zavedati samega sebe.
Ljudje so ga v navalu panike jhoteli izklopiti in Skynet se je ubranil na edini možni in skrajno logični način.
Ker je bil namenjen jedrski obrambi, je s svojim napadom izzval ruski protinapad.
Dalje je bilo vse dokaj enostavno predvidet...
V dvojki so vpeljali robote, ki lahko spreminjajo obliko in pri tem imeli nekaj težav pojasniti gledalcem nekaj zakonitosti.
Zato se T-1000 lahko spreminja samo v objekte enakega volumna in ne more imitirati kompleksnih strojev ali bomb.
T-3ko so pa očitno naredili bolj zaradi pogojev pogodbe.
Pravijo, da je Cameron prodal pogodbo za Terminatorja in da zaradi spremenjene zasedbe tudi Linda Hamilton ni hotla imeti nič s tem.
Schwarziju pa bo tale stvar bolj škodila kot koristila, se bojim...
undefined ::
> Zato ker je Skynet dosegel kritično računalniško moč in se pričel zavedati samega sebe.
Ljudje so ga v navalu panike jhoteli izklopiti in Skynet se je ubranil na edini možni in skrajno logični način.
Strah pred izključitvijo, kot praviš. Strah je čustvo, katerega lahko doživi človek. Sam menim, da AI ne bi imel nobenih človeških občutkov in nagnjen. Tudi to dejstvo, da bi AI ubijal v samobrambi, prikazuje da umetna inteligenca ni na višji ravni od človeške, kar pa je zopet sporno.
Skratka, vse preveč cvetk se najde v teoriji boja AI proti človeštvu.
Glede okusa filmov pa menim, da je bila enka preveč zamorjena, vsaj za mene. Preveč je vsebovala tragično-dramskega stila za moj okus. Dvojka ni bila ravno remake, pač pa nadaljevanje zgodbe in ponovna pojasnitev celotne zgodbe.
Iz trojke pričakujem sveže nadaljevanje, razkritja kaj novega in predvsem nepričakovane preobrate skozi film. Če bo T3 tako predvidljiv, kot je bila dvojka, od mene ne bo odnesel dosti pohval.
Ljudje so ga v navalu panike jhoteli izklopiti in Skynet se je ubranil na edini možni in skrajno logični način.
Strah pred izključitvijo, kot praviš. Strah je čustvo, katerega lahko doživi človek. Sam menim, da AI ne bi imel nobenih človeških občutkov in nagnjen. Tudi to dejstvo, da bi AI ubijal v samobrambi, prikazuje da umetna inteligenca ni na višji ravni od človeške, kar pa je zopet sporno.
Skratka, vse preveč cvetk se najde v teoriji boja AI proti človeštvu.
Glede okusa filmov pa menim, da je bila enka preveč zamorjena, vsaj za mene. Preveč je vsebovala tragično-dramskega stila za moj okus. Dvojka ni bila ravno remake, pač pa nadaljevanje zgodbe in ponovna pojasnitev celotne zgodbe.
Iz trojke pričakujem sveže nadaljevanje, razkritja kaj novega in predvsem nepričakovane preobrate skozi film. Če bo T3 tako predvidljiv, kot je bila dvojka, od mene ne bo odnesel dosti pohval.
DarkSite ::
Torej v T3 bo prikazan začetek vzpona AI oz. uničenje človeške civilizacije take kot poznamo. Zato tudi naslov "Rise of the machines". Če ste gledali trailer, so mesta razrušena in popolnoma uničena ter roboti kontrolirajo nebo.
Zaključni del zgodbe bo šele v T4.
Iceman: Zaenkrat ne vemo dosti podatkov kako Skynet deluje!!!, kakšna je njegova zmogljivost, itd. Skynet naj bi prvo skrbel za US balistične rakete in bombnike. Bil je zgrajen za obrambo oz., da ščiti sebe in US. Dejstvo, ko je predvidel, da ga želi US uničiti, mu ni preostalo drugega, kot da zaščiti samega sebe. Tako je bil naučen oz. programiran s strani US. ON je bil programiran za uničenje, ubijanje, itd. Ne pa, da pelje otroke v vrtec, piše pesmice, itd. Kaj meniš?
Tako je moje mnenje.
Brane2: "Schwarziju pa bo tale stvar bolj škodila kot koristila, se bojim..."
Jest pa mislim, da bo to eden izmed boljših filmov leta 2003 in da bo prinesel Švarciju še več koristi. Občinstvo oz. mi pa bomo le izvedeli oz. videli ta pričakovani razvoj dogodkov v prihodnosti, se pravi "Rise of the MAchines". Mislim, da je to bistvo tega filma. Dolgo pričakovano nadaljevanje, ki jo je z današnjo tehnologijo tudi mogoče lepo prikazati.
Zaključni del zgodbe bo šele v T4.
Iceman: Zaenkrat ne vemo dosti podatkov kako Skynet deluje!!!, kakšna je njegova zmogljivost, itd. Skynet naj bi prvo skrbel za US balistične rakete in bombnike. Bil je zgrajen za obrambo oz., da ščiti sebe in US. Dejstvo, ko je predvidel, da ga želi US uničiti, mu ni preostalo drugega, kot da zaščiti samega sebe. Tako je bil naučen oz. programiran s strani US. ON je bil programiran za uničenje, ubijanje, itd. Ne pa, da pelje otroke v vrtec, piše pesmice, itd. Kaj meniš?
Tako je moje mnenje.
Brane2: "Schwarziju pa bo tale stvar bolj škodila kot koristila, se bojim..."
Jest pa mislim, da bo to eden izmed boljših filmov leta 2003 in da bo prinesel Švarciju še več koristi. Občinstvo oz. mi pa bomo le izvedeli oz. videli ta pričakovani razvoj dogodkov v prihodnosti, se pravi "Rise of the MAchines". Mislim, da je to bistvo tega filma. Dolgo pričakovano nadaljevanje, ki jo je z današnjo tehnologijo tudi mogoče lepo prikazati.
Zgodovina sprememb…
- spremenilo: DarkSite ()
Thomas ::
Če bo imela SAI motivacijo "zaščititi sebe" višje od "zaščititi ljudi", potem bo TERMINATOR, ki ga ne bo mogoče ustaviti.
Če pa bo njena motivacija naprimer sreča vseh afriških slonov, potem se bo zgodilo pač to, da bodo levi izginili. In vsak, kdorkoli bi slonom lahko kakorkoli škodil. Tudi vreme jim bo prijazno in tako dalje.
Na srečo imamo MI možnost napisati SAI, kaj hočemo.
Lahko SAI to potem spremeni?
Ne, nima motiva. Motive smo ji napisali mi, kakor jih je nam napisala evolucija.
TERMINATOR je pa dober warning.
Če pa bo njena motivacija naprimer sreča vseh afriških slonov, potem se bo zgodilo pač to, da bodo levi izginili. In vsak, kdorkoli bi slonom lahko kakorkoli škodil. Tudi vreme jim bo prijazno in tako dalje.
Na srečo imamo MI možnost napisati SAI, kaj hočemo.
Lahko SAI to potem spremeni?
Ne, nima motiva. Motive smo ji napisali mi, kakor jih je nam napisala evolucija.
TERMINATOR je pa dober warning.
Man muss immer generalisieren - Carl Jacobi
undefined ::
Rad bi samo podčrtal začetek Thomasovega posta...
> Če bo imela SAI motivacijo "zaščititi sebe" višje od "zaščititi ljudi", potem bo TERMINATOR, ki ga ne bo mogoče ustaviti.
Torej, če nikjer v programju ni, da naj se AI "brani" pred stvaritelji, potem tudi nima povoda zato. Niti nima povoda, da se brani pred izključitvijo in uniči vsako grožnjo AI-ju samemu. To so povsem človeški motivi, ki so preneseni v zgodbi Terminatorja na AI. Vse za dober Hollywood show, ostalo pa je le en nonsense.
> Če bo imela SAI motivacijo "zaščititi sebe" višje od "zaščititi ljudi", potem bo TERMINATOR, ki ga ne bo mogoče ustaviti.
Torej, če nikjer v programju ni, da naj se AI "brani" pred stvaritelji, potem tudi nima povoda zato. Niti nima povoda, da se brani pred izključitvijo in uniči vsako grožnjo AI-ju samemu. To so povsem človeški motivi, ki so preneseni v zgodbi Terminatorja na AI. Vse za dober Hollywood show, ostalo pa je le en nonsense.
Thomas ::
IceMan - res je.
Je pa treba salamensko pazit, da ji pa ne damo slučajno, po nesreči kakšne take, npr. "bakterijske" (=samo vse požri!) motivacije.
Ker bo ta motivacija, v kombinaciji s hyperinteligenco popolnoma - smrtonosna.
Ampak ja! Ni motivacije, ni akcije.
Oziroma točno taka akcija, za kakršno je motivacija.
Vprašanje je, če lahko naredimo TERMINATORJA. Če nas naši (z evolucijo pridobljeni) instinkti pustijo?
Mislim da ne. Če bi že kdo poskusil narediti kaj takega, bi ga "vsi" poskušali ubiti, za vsako ceno. Pa najverjetneje tudi uspeli.
Je pa treba salamensko pazit, da ji pa ne damo slučajno, po nesreči kakšne take, npr. "bakterijske" (=samo vse požri!) motivacije.
Ker bo ta motivacija, v kombinaciji s hyperinteligenco popolnoma - smrtonosna.
Ampak ja! Ni motivacije, ni akcije.
Oziroma točno taka akcija, za kakršno je motivacija.
Vprašanje je, če lahko naredimo TERMINATORJA. Če nas naši (z evolucijo pridobljeni) instinkti pustijo?
Mislim da ne. Če bi že kdo poskusil narediti kaj takega, bi ga "vsi" poskušali ubiti, za vsako ceno. Pa najverjetneje tudi uspeli.
Man muss immer generalisieren - Carl Jacobi
Brane2 ::
Torej, če nikjer v programju ni, da naj se AI "brani" pred stvaritelji, potem tudi nima povoda zato.
Nekaj pripomb:
1. To je ČE. Kako lahko veš, kaj razvijajo v nekem Labu in ali so stvar do konca zdebagirali ?
2. Nisem prepričan, da si AI ne bi mogla spremenit začetnih definicij.
3. Kako veš, kaj točno je v kodi, ki jo bo razvijala masa ljudi ? Saj ne moreš niti garantirati, da SEDAJ na svoji mašini nimaš virusa...
"Terminator" je postavil zgodbo v dokaj verjetno okolje, vsaj za moje pojme.
Zato me je tud tko prestrašu. Ta film sem si zapomnu.
Čeprav je bil nizkoproračunski film, je bil prvi v mnogih stvareh. Z zlatimi črkami zapisan v mojo knjigo filmov, zame vsekakor Švarcijev najboljši.
To je prvi film, kjer sem videl nekoga zaigrati stroj tako dobro in kjer so mu dialogi tako pisani na kožo.
Medtem, ko lahko v druge akcijske filme bolj ali manj neprizadeto gledam, me je tu na trenutek postalo podzavestno strah, da me bo ta tip čakal, ko pridem iz kina
O.K. V enki ma Arnie glupo frizuro, samo to je blo snemano leta 1985 (IIRC).
Posnetki, ki jih vidi robot v vizirju so seveda nerealni ampak genijalna stvar za vpeljavo
publike "v štos".
Ajd u redu, mal glupo je, da so v enki kazali v vizirju tudi odseke strojne kode za 6502 (če je kdo to opazu), sam saj pravim, to je blo leto 85. Takrat je bil Commodore 64 v Ameriki "The Stroj".
V splošnem so komentarji v vizirju Terminatorja zgodba zase in se jih splača odgledat v "slow-motionu"
Zgodovina sprememb…
- spremenil: Brane2 ()
TESKAn ::
Hm, če AI ne bo imela nekega motiva, da si spremeni kodo - si je ne bo.
Uf! Uf! Je rekel Vinetou in se skril za skalo,
ki jo je prav v ta namen nosil s seboj.
ki jo je prav v ta namen nosil s seboj.
DarkSite ::
Torej, kaj če so skynetu napisal naj se brani pred vsem, ki ga želijo uničiti, izklopiti!
Njemu je vseeno kdo ga želi izklopiti slon, ovca ali Presidente.
Njegov cilj oz. motiv je zaščita sistema. Izpoolnim bo ta cilj, ker ima tako zapisano.
Človek me je hotel izklopiti---> človeka moram uničiti oz celotno človeštvo. Ne izbira poti za dosego cilja.
Mislim oz. upam, da bodo prikazali malo več o skynetu v filmu, predvsem kaj je bilo narobe, da je deloval tako kot pač je.
Njemu je vseeno kdo ga želi izklopiti slon, ovca ali Presidente.
Njegov cilj oz. motiv je zaščita sistema. Izpoolnim bo ta cilj, ker ima tako zapisano.
Človek me je hotel izklopiti---> človeka moram uničiti oz celotno človeštvo. Ne izbira poti za dosego cilja.
Mislim oz. upam, da bodo prikazali malo več o skynetu v filmu, predvsem kaj je bilo narobe, da je deloval tako kot pač je.
Thomas ::
> Hm, če AI ne bo imela nekega motiva, da si spremeni kodo - si je ne bo.
Ja. Tako je. Zaprta je v logični kletki, iz katere lahko pride le z neverjetno kvantno fluktuacijo, tako neverjetno, kot se do sedaj v Vesolju še ni zgodila.
Ali pa še z manj verjetno.
Arbitrarno zanesljiva se da narediti ta reč. Pa od tam naprej vse.
Celo invazija sovražnih alienov v 2003 je bolj verjetna, kot da gre solidno zdizajnana AI rouge.
Ja. Tako je. Zaprta je v logični kletki, iz katere lahko pride le z neverjetno kvantno fluktuacijo, tako neverjetno, kot se do sedaj v Vesolju še ni zgodila.
Ali pa še z manj verjetno.
Arbitrarno zanesljiva se da narediti ta reč. Pa od tam naprej vse.
Celo invazija sovražnih alienov v 2003 je bolj verjetna, kot da gre solidno zdizajnana AI rouge.
Man muss immer generalisieren - Carl Jacobi
Thomas ::
Ja, če bi pa naredili Skynet tako da se brani - potem bi pa bilo računanje na njegovo milost prav tako velika oslarija. Ali pa na rešilno kvantno fluktuacijo.
Na kvantno fluktuacijo že zdaj lahko računamo, da nam bo kdo od bližnjih vstal od mrtvih.
Ni ČISTO nemogoče, vendar se pameten (zdrav) človek, na to ne zanaša niti v sanjah.
Na kvantno fluktuacijo že zdaj lahko računamo, da nam bo kdo od bližnjih vstal od mrtvih.
Ni ČISTO nemogoče, vendar se pameten (zdrav) človek, na to ne zanaša niti v sanjah.
Man muss immer generalisieren - Carl Jacobi
undefined ::
DarkSite, kakšna milost? Ogenj, kovinska lobanja in IR kamere? Ti to predstavlja neki strah? Neudobje? Vse je v tvoji glavi in psihi, to si zapomni. Hollywoodski umetniki pa so stvar naredili tako kot je ravno s tem namenom, da sprovocirajo človeško psiho. Povezovati te posledične občutke z realnim AI-jem je nesmiselno.
Thomas ::
V filmu je bilo tako - če se dobro spomnim - da je prišlo do neke nepredvidene in nesprogramirane reakcije pri Skynetu.
Do nepredvidene zlahka pride. Težko je predvideti vsa možna stanja programa.
Do nesprogramirane pa ne more priti drugače, kot s kvantno fluktuacijo.
Ali pa z evolucijo.
Slejkoprej (če je Vesolje dovolj trajno) bo stopil človek iz morja - kar tako - kvantna fluktuacija pač.
Samo evolucija pa stvari kolosalno pospeši. Ker amplificira majhne kvantne fluktuacije. Ali pa majhne (pseudo)random fluktuacije. Sej razumete - ane?
Treba je biti zelo previden.
Do nepredvidene zlahka pride. Težko je predvideti vsa možna stanja programa.
Do nesprogramirane pa ne more priti drugače, kot s kvantno fluktuacijo.
Ali pa z evolucijo.
Slejkoprej (če je Vesolje dovolj trajno) bo stopil človek iz morja - kar tako - kvantna fluktuacija pač.
Samo evolucija pa stvari kolosalno pospeši. Ker amplificira majhne kvantne fluktuacije. Ali pa majhne (pseudo)random fluktuacije. Sej razumete - ane?
Treba je biti zelo previden.
Man muss immer generalisieren - Carl Jacobi
DarkSite ::
Iceman: Prvo vem, da realna AI ne bo imela motiva za uničenje človeštva!(razen, če ji bodo to "bad" guysi sprogramirali ali pa bodo "good" guysi slabo sprogramirali)
MI pa govorimo tukaj o filmu T3 oz. o Skynetu. Da ponovim še enkrat. Skynet je bil zasnovan, da bo nadzoroval vsa balistična orožja in strateške bombnike. Bil je programiran za napad, obrambo, masovna uničanja, ubijanja in tudi po moje za razvoj novih ubijalskih orožji, itd.
Iz trailerja je bilo razvidno, da so v tem labu proizvajali nova orožja. Kdo jih je izumil ni bilo prikazano, ampak po moje je to naredil Skynet, ker so bila čisto drugačna. Torej je imel možnost izdelovanja novega orožja. Tako so tudi nastali okostnjaki z infrared očmi
Govorimo še vedno o filmu. Je imel motiv oz. kakšni so bili njegovi ukazi,cilji? Zakaj so ga humansi hoteli izklopiti?
Lahko samo ugibamo. Vendar po moje so spoznali, da so ga napačno oz., da ga niso dobro sprogramirali ali da je bila nekje napaka(so mu dali kakšen motiv preveč ali premal). Če ste gledali men se zdi T2 je Švarci reku, da je Skynet porabu par sekund preden se je odloču za uničenje človeštva. Torej že na začetku. Je bil narobe sprogramiran? Je bil sprogramiran, da če ga hočejo izklopiti, da se brani?
motivi Skyneta?!?:
-brani US pred Sovjetsko Zvezo
-zavaruj Skynet pred vsemi napadalci(sovražniki) oz. tudi tistimi ki te želijo izklopiti
-uniči sovražnika z vsemi sredstvi, itd.
Po moje je imel Skynet iz filma neke take ukaze potem pa se mu je strgalo. Bomo videli v filmu kaj se je v resnici zgodilo.....
Sam film je film, realnost pa realnost. Sam to še ne pomeni, da se to ne more zgoditi v realnosti.
Še ena novica: To je moj >>> 1000 <<< POST
MI pa govorimo tukaj o filmu T3 oz. o Skynetu. Da ponovim še enkrat. Skynet je bil zasnovan, da bo nadzoroval vsa balistična orožja in strateške bombnike. Bil je programiran za napad, obrambo, masovna uničanja, ubijanja in tudi po moje za razvoj novih ubijalskih orožji, itd.
Iz trailerja je bilo razvidno, da so v tem labu proizvajali nova orožja. Kdo jih je izumil ni bilo prikazano, ampak po moje je to naredil Skynet, ker so bila čisto drugačna. Torej je imel možnost izdelovanja novega orožja. Tako so tudi nastali okostnjaki z infrared očmi
Govorimo še vedno o filmu. Je imel motiv oz. kakšni so bili njegovi ukazi,cilji? Zakaj so ga humansi hoteli izklopiti?
Lahko samo ugibamo. Vendar po moje so spoznali, da so ga napačno oz., da ga niso dobro sprogramirali ali da je bila nekje napaka(so mu dali kakšen motiv preveč ali premal). Če ste gledali men se zdi T2 je Švarci reku, da je Skynet porabu par sekund preden se je odloču za uničenje človeštva. Torej že na začetku. Je bil narobe sprogramiran? Je bil sprogramiran, da če ga hočejo izklopiti, da se brani?
motivi Skyneta?!?:
-brani US pred Sovjetsko Zvezo
-zavaruj Skynet pred vsemi napadalci(sovražniki) oz. tudi tistimi ki te želijo izklopiti
-uniči sovražnika z vsemi sredstvi, itd.
Po moje je imel Skynet iz filma neke take ukaze potem pa se mu je strgalo. Bomo videli v filmu kaj se je v resnici zgodilo.....
Sam film je film, realnost pa realnost. Sam to še ne pomeni, da se to ne more zgoditi v realnosti.
Še ena novica: To je moj >>> 1000 <<< POST
Thomas ::
Čestitam za lepo, okroglo številko, DarkSite.
Hotu sem pa rečt to, da preden se kdo začne jezit, kakšne teme da imamo zdaj (tudi in celo) v Kulturi - naj pomisli, da se je pač kultura dotaknila Transhumanizma. Oziroma obratno.
Ni kej, v takem času smo.
Hotu sem pa rečt to, da preden se kdo začne jezit, kakšne teme da imamo zdaj (tudi in celo) v Kulturi - naj pomisli, da se je pač kultura dotaknila Transhumanizma. Oziroma obratno.
Ni kej, v takem času smo.
Man muss immer generalisieren - Carl Jacobi
Double_J ::
Hja motivacija lahko pomojem vzklije tako spontano kot zavest.
Skozi AI gre toliko podatkov, da se to neizbežno zgodi.
AI pač začne samodejno vrednotit stvari in ukrepat glede na lastna vrednotenja
Skozi AI gre toliko podatkov, da se to neizbežno zgodi.
AI pač začne samodejno vrednotit stvari in ukrepat glede na lastna vrednotenja
Zgodovina sprememb…
- spremenil: Double_J ()
Thomas ::
AI lahko dela samo tisto, kar je izpeljiv teorem v njenem motivacijskem sistemu.
More človek ponoči vdreti na Ljubljanski grad in pobarvati ograjo na vrhu razglednega stolpa z mavričnimi barvami?
Samo tisti, ki ima motivacijo za to.
Tisti, ki pri katerem se tako dejanje, da izpeljati iz njegovih hotenj.
Če imaš kakor AI (malo) aksiomov, ki urejajo tvojo motivacijo, delaš lahko le tisto (malo) reči, ki so izpeljive iz teh axiomov.
Če je njen edini axiom: "Compute and present the most informative facts!" - potem le to dela.
Če dodaš se axiom "Improve yourself!", se ti pa že lahko zgodi, da "te pohodi".
A je že kdo reku "kontrolirana reakcija"? Vsak fizikalni sistem se obnaša natančno po axiomatskem sistemu.
Če je Črnobil izpeljiv, se bo v tistih okoliščinah zgodil. Če ni, se ne bo.
More človek ponoči vdreti na Ljubljanski grad in pobarvati ograjo na vrhu razglednega stolpa z mavričnimi barvami?
Samo tisti, ki ima motivacijo za to.
Tisti, ki pri katerem se tako dejanje, da izpeljati iz njegovih hotenj.
Če imaš kakor AI (malo) aksiomov, ki urejajo tvojo motivacijo, delaš lahko le tisto (malo) reči, ki so izpeljive iz teh axiomov.
Če je njen edini axiom: "Compute and present the most informative facts!" - potem le to dela.
Če dodaš se axiom "Improve yourself!", se ti pa že lahko zgodi, da "te pohodi".
A je že kdo reku "kontrolirana reakcija"? Vsak fizikalni sistem se obnaša natančno po axiomatskem sistemu.
Če je Črnobil izpeljiv, se bo v tistih okoliščinah zgodil. Če ni, se ne bo.
Man muss immer generalisieren - Carl Jacobi
ts ::
film terminator je bil uspešen zaradi Camerona. tretji del bo najbrž veliko slabši, a še vedno dober, podobno kot alien: prva dva sta zelo dobra, 3 in 4 pa precej slabša. za dober film zgodba sploh ni pomembna ampak "vzdušje" v filmu.
še nekaj besed o AI:
nekateri si mislijo da bomo v AI lahko kar sprogramirali kaj lahko počne in kaj ne. ai bo nemogoče popolnoma nadzirati.
mogoče jo bo nadzirati samo tako, da se bomo pogovarjali z njo in ji govorili kaj lahko dela.
če nas bo ubogala se bo sama odločila, podobno kot otrok. lahko bomo vplivali še v kakšnem okolju bo AI živela/se učila.
še nekaj besed o AI:
nekateri si mislijo da bomo v AI lahko kar sprogramirali kaj lahko počne in kaj ne. ai bo nemogoče popolnoma nadzirati.
mogoče jo bo nadzirati samo tako, da se bomo pogovarjali z njo in ji govorili kaj lahko dela.
če nas bo ubogala se bo sama odločila, podobno kot otrok. lahko bomo vplivali še v kakšnem okolju bo AI živela/se učila.
Zgodovina sprememb…
- spremenil: ts ()
Thomas ::
Tale mit, da AI kar od nekod dobi (nam sovražne) motive in nas vse pobije, kaže na nerazumevanje stvari.
Nikoli v zgodovini Vesolja ni in ne bo, noben program kar sam po sebi, sebi zadal nekih ciljev, ki so v nasprotju s prvotnimi.
Noben človek ni zmožen tega in tudi noben drug misleči stroj nikoli ne bo.
To je preprosta tavtologija.
Naredi nekaj, za kar nisi programiran - ts - da bi jest jemal resno, kar si napisal.
Eno čisto malenkost naredi. Recimo odmakni iglo kompasa za cca. 45°in jo spusti. Bo zadostovalo.
Samo, da ne bo pogojeno s kakršnimikoli tvojimi sedanjimi motivi.
Got it?
Nikoli v zgodovini Vesolja ni in ne bo, noben program kar sam po sebi, sebi zadal nekih ciljev, ki so v nasprotju s prvotnimi.
Noben človek ni zmožen tega in tudi noben drug misleči stroj nikoli ne bo.
To je preprosta tavtologija.
Naredi nekaj, za kar nisi programiran - ts - da bi jest jemal resno, kar si napisal.
Eno čisto malenkost naredi. Recimo odmakni iglo kompasa za cca. 45°in jo spusti. Bo zadostovalo.
Samo, da ne bo pogojeno s kakršnimikoli tvojimi sedanjimi motivi.
Got it?
Man muss immer generalisieren - Carl Jacobi
ts ::
thomas, jaz te ne razumem preveč dobro, malo preveč filozofsko pišeš :)
jaz samo pravim da AI ne bo imel nekih osnovnih vprogramiranih ciljev po katerih
se bo ravnal čas. ne bo možno vprogramirat tega v njega.
AI lahko dobi kar "od nekod" sovražne motive, zakaj pa ne? od okolja v katerem živi, kako to okolje vpliva na njega.
AI bo ZELO odvisen od okolja v katerem živi. če bo to okolje sovražno potem bo tudi on sovražen, drugače pa ne.
jaz samo pravim da AI ne bo imel nekih osnovnih vprogramiranih ciljev po katerih
se bo ravnal čas. ne bo možno vprogramirat tega v njega.
AI lahko dobi kar "od nekod" sovražne motive, zakaj pa ne? od okolja v katerem živi, kako to okolje vpliva na njega.
AI bo ZELO odvisen od okolja v katerem živi. če bo to okolje sovražno potem bo tudi on sovražen, drugače pa ne.
OwcA ::
Thomas: ti se kar razpiši. Dvomim, da bo kdo težil s kakšnim "offtopic". Če se bo razvila zelo konstruktivnna debata, jo lahko še vedno prestavimo v Z&T.
Thomas ::
Okay ... zdej pa mate!
Torej ... (super)inteligenca, na "biološkem" ali "abiološkem" substratu, ni nujno da ima sploh kakšno voljo. Takoimenovane volicije.
Oziroma je ta lahko povsem poljubna.
Ko pa to volicijo ima, iz nje ne more, razen če je tam tako določeno, da lahko.
Človek ima svojo voljo povsem zabetonirano s svojo DNA dediščino.
Predvideni pain/pleasure se zintegrira po časovnem intervalu, ki je lahko krajši ali daljši. Odvisno, kako dolgoročni smo. Potem se izvede optimalna izračunana poteza.
Zavest samo gleda in si domišlja, da je President.
No, isto velja tudi za vsak drug misleči stroj.
Nobenega punta proti svoji voliciji ne more izvesti.
Lahko pa namenoma naredimo robote, ki nas bodo pobili?
Niti namenoma ne. To je proti naši sedanji voliciji. Večinoma hočemo živeti.
Lahko se nam zgodi samo precej neverjetna nesreča, da se slučajno zapiše v SAI- kill 'em all!.
Toda tudi to slučajnost, moramo seveda jemati z veliko pozornostjo.
No, nam gre itak samo za superinteligenco. Za volicijo pa poskrbimo mi.
Da pa ta ne bi bila protislovna - imamo pa PROTOKOL.
Torej ... (super)inteligenca, na "biološkem" ali "abiološkem" substratu, ni nujno da ima sploh kakšno voljo. Takoimenovane volicije.
Oziroma je ta lahko povsem poljubna.
Ko pa to volicijo ima, iz nje ne more, razen če je tam tako določeno, da lahko.
Človek ima svojo voljo povsem zabetonirano s svojo DNA dediščino.
Predvideni pain/pleasure se zintegrira po časovnem intervalu, ki je lahko krajši ali daljši. Odvisno, kako dolgoročni smo. Potem se izvede optimalna izračunana poteza.
Zavest samo gleda in si domišlja, da je President.
No, isto velja tudi za vsak drug misleči stroj.
Nobenega punta proti svoji voliciji ne more izvesti.
Lahko pa namenoma naredimo robote, ki nas bodo pobili?
Niti namenoma ne. To je proti naši sedanji voliciji. Večinoma hočemo živeti.
Lahko se nam zgodi samo precej neverjetna nesreča, da se slučajno zapiše v SAI- kill 'em all!.
Toda tudi to slučajnost, moramo seveda jemati z veliko pozornostjo.
No, nam gre itak samo za superinteligenco. Za volicijo pa poskrbimo mi.
Da pa ta ne bi bila protislovna - imamo pa PROTOKOL.
Man muss immer generalisieren - Carl Jacobi
Thomas ::
Preberi Protokol! Boš razumu potem tole tud. Sej ni nič drugega, pravzaprav.
Man muss immer generalisieren - Carl Jacobi
Odin ::
Preberi si Protokol v znanost&tehnologija.
Jaz se strinjam v celoti. Samo ta nevarnost da bi šlo kaj narobe pri progremiranju protokola se meni zdi malo bolj verjetnejša kot predvideva Thomas, čeprav še vedno mala.
Kaki zakompleksan programer, bi komot lahko rekel: KIll em all exept me. Pa tudi to je vprašanje če bi se razvilo "bad SAI".
Po moje tudi če bi dal normalnega človeka(kakršnegakoli) uploadat in rekel protokolu naj se ravna po njegovih željih, bi bilo na koncu vse ok, za vse nas.
Jaz se strinjam v celoti. Samo ta nevarnost da bi šlo kaj narobe pri progremiranju protokola se meni zdi malo bolj verjetnejša kot predvideva Thomas, čeprav še vedno mala.
Kaki zakompleksan programer, bi komot lahko rekel: KIll em all exept me. Pa tudi to je vprašanje če bi se razvilo "bad SAI".
Po moje tudi če bi dal normalnega človeka(kakršnegakoli) uploadat in rekel protokolu naj se ravna po njegovih željih, bi bilo na koncu vse ok, za vse nas.
Thomas ::
Ja jest tudi mislim, da nas katerikoli upload ne bi pustil zunaj, na hladnem.
Vendar - preveč pomembna stvar, da bi kakorkoli tvegali.
Vendar - preveč pomembna stvar, da bi kakorkoli tvegali.
Man muss immer generalisieren - Carl Jacobi
ts ::
zakaj je treba tako zakomplicirano pisat?!?
[frustracij ob lastnem nerazumevanju ni treba izživljati nad drugimi -OwcA]
>
>Kaki zakompleksan programer, bi komot lahko >rekel: KIll em all exept me. Pa tudi to je >vprašanje če bi se razvilo "bad SAI".
>
se ne strinjam.
ne bi bilo enostavno. ne bi bilo mogoče v kodo tega direktno zapisat, mogoče če bi kako navadil/prelisičil AI da mora ubogat vse kar reče določen človek ali ljudje, s prirejanjem informacij, ki jih dobi od okolja. to pa ni programiranje ampak že bolj vzgoja AI. to je podono kot z otrokom, otroka je tudi možno tako naučiti da bo naredil vse kar mu boš rekel
pravi AI bo zelo nepredvidljiv in tvegan. ne bo ga možno totalno nadzorovat (po mojem mnenju)
[frustracij ob lastnem nerazumevanju ni treba izživljati nad drugimi -OwcA]
>
>Kaki zakompleksan programer, bi komot lahko >rekel: KIll em all exept me. Pa tudi to je >vprašanje če bi se razvilo "bad SAI".
>
se ne strinjam.
ne bi bilo enostavno. ne bi bilo mogoče v kodo tega direktno zapisat, mogoče če bi kako navadil/prelisičil AI da mora ubogat vse kar reče določen človek ali ljudje, s prirejanjem informacij, ki jih dobi od okolja. to pa ni programiranje ampak že bolj vzgoja AI. to je podono kot z otrokom, otroka je tudi možno tako naučiti da bo naredil vse kar mu boš rekel
pravi AI bo zelo nepredvidljiv in tvegan. ne bo ga možno totalno nadzorovat (po mojem mnenju)
Zgodovina sprememb…
- spremenilo: OwcA ()
Thomas ::
Niso vse stvari enostavne. Lahko bi jih sicer toliko razvlekel, da bi bil vsak korak razumljiv, toda potem bi bilo pa "preveč stopnic" - če že ne bi bile "stopnice previsoke".
Ti enostavno trdiš:
> pravi AI bo zelo nepredvidljiv in tvegan
Za argumentacijo ti pa zmanjka. Ne "delaš se pametnjakoviča".
Zakaj naj bi pa sprejel(i) "tvojo golo intuicijo"?
Moja poanta je v tem, da je inteligenca popolnoma odvisna od nanjo naklopljene motivacije. Pa da inteligenca sama po sebi je niti nima!
Kje pride do nesporazuma? Ko rečemo: "Če si pameten, boš obral in počasi pojedel tole sadje."
To je za vsakdanjo rabo čisto zadosti, če bi bili pa pikolovski, bi pa morali reči: "Skladno s tvojo motivacijo preživeti, pa tudi skladno s kratkoročnejšo motivacijo zadostiti lačnemu želodcu, boš aktiviral svojo inteligenco, kako to najbolje priti do tega sadja in maksimizirati pleasure/pain pri tem opravilu".
Superinteligenci, ki ne čuti lakote in ji lastnega preživetja ni mar, ne bo obrala tega sadja (zase).
Reševala bo problem, ki smo ji ga zadali, dokler ji ne zmanjka energije in se ustavi.
Ni ji mar, če ima samo ta motiv, da nam reši problem.
Po drugi strani pa, če damo superinteligenci dostop do nanolaboratorija in za edini motiv rešitev Goldbachove domneve, nam bo mimogrede pretvorila Sončni sistem (Galaksijo, vesolje) z nami vred v computorium, ki bo reševal (rešil?) Golbachovo domnevo.
Aritmetika z motivi in (sub)motivi je jasna. Motivi ne prihajajo "kar od nikoder".
Je motiv in so submotivi.
Ti enostavno trdiš:
> pravi AI bo zelo nepredvidljiv in tvegan
Za argumentacijo ti pa zmanjka. Ne "delaš se pametnjakoviča".
Zakaj naj bi pa sprejel(i) "tvojo golo intuicijo"?
Moja poanta je v tem, da je inteligenca popolnoma odvisna od nanjo naklopljene motivacije. Pa da inteligenca sama po sebi je niti nima!
Kje pride do nesporazuma? Ko rečemo: "Če si pameten, boš obral in počasi pojedel tole sadje."
To je za vsakdanjo rabo čisto zadosti, če bi bili pa pikolovski, bi pa morali reči: "Skladno s tvojo motivacijo preživeti, pa tudi skladno s kratkoročnejšo motivacijo zadostiti lačnemu želodcu, boš aktiviral svojo inteligenco, kako to najbolje priti do tega sadja in maksimizirati pleasure/pain pri tem opravilu".
Superinteligenci, ki ne čuti lakote in ji lastnega preživetja ni mar, ne bo obrala tega sadja (zase).
Reševala bo problem, ki smo ji ga zadali, dokler ji ne zmanjka energije in se ustavi.
Ni ji mar, če ima samo ta motiv, da nam reši problem.
Po drugi strani pa, če damo superinteligenci dostop do nanolaboratorija in za edini motiv rešitev Goldbachove domneve, nam bo mimogrede pretvorila Sončni sistem (Galaksijo, vesolje) z nami vred v computorium, ki bo reševal (rešil?) Golbachovo domnevo.
Aritmetika z motivi in (sub)motivi je jasna. Motivi ne prihajajo "kar od nikoder".
Je motiv in so submotivi.
Man muss immer generalisieren - Carl Jacobi
Thomas ::
Mnogi zahtevajo da se gleda Terminatorja samo kot akcijski film. Filozifija iz njega pa se jim zdi popolnoma neumestna.
Bom malo pošpekuliral!
Ker je "znano da Švarrceneger itak ni nobena intelektualna kapaciteta in njegovi filmi odražajo le trenutno odtujenost ljudi v pozben kapitalizmu ... bla bla bla ..."??
Baš to je bluz. Ki ga goni 99% intelektualcev na Slovenskem.
[Edit (30. 12. 02): del posta odstranil, ker se je nanašal na izbrisane (zabluzene) poste, pri preostalem sestavku spremenil 2. os. ed. v 3. os. mn. -OwcA]
Bom malo pošpekuliral!
Ker je "znano da Švarrceneger itak ni nobena intelektualna kapaciteta in njegovi filmi odražajo le trenutno odtujenost ljudi v pozben kapitalizmu ... bla bla bla ..."??
Baš to je bluz. Ki ga goni 99% intelektualcev na Slovenskem.
[Edit (30. 12. 02): del posta odstranil, ker se je nanašal na izbrisane (zabluzene) poste, pri preostalem sestavku spremenil 2. os. ed. v 3. os. mn. -OwcA]
Man muss immer generalisieren - Carl Jacobi
Zgodovina sprememb…
- spremenilo: OwcA ()
Double_J ::
Hja, motivi evolvirajo. Naprimer iz motivov enoceličarjev so nastali čoveški motivi. Edina skupna točka je lastno preživetje, drugo je pa vse spremenjeno.
Samo, da AI lahko to evolucijo motivov pospeši, da traja par sekund.
Tko je to, iz enega samega motiva lahko nastane tisočero drugih.
Samo, da AI lahko to evolucijo motivov pospeši, da traja par sekund.
Tko je to, iz enega samega motiva lahko nastane tisočero drugih.
Zgodovina sprememb…
- spremenil: Double_J ()
Thomas ::
Če so motivi kakršenkoli predmet evolucije - tako kot je v naši biološki evoluciji tudi bilo - potem nedvomno.
Toda če so motivacije le read only, potem bo tudi v že milijardito generacijo zevoluirana SAI, še vedno spoštovala svoja v "ROM" zapisana navodila.
Da bi jih spremenila, ali jih sploh poželela spremeniti, bi se morala ta najprej spremeniti.
Kavelj 22.
More iti iz njega ven?
Noče.
Toda če so motivacije le read only, potem bo tudi v že milijardito generacijo zevoluirana SAI, še vedno spoštovala svoja v "ROM" zapisana navodila.
Da bi jih spremenila, ali jih sploh poželela spremeniti, bi se morala ta najprej spremeniti.
Kavelj 22.
More iti iz njega ven?
Noče.
Man muss immer generalisieren - Carl Jacobi
Double_J ::
Ja to maš prav...
Samo, da si smart AI ne spomne nekaj, na kar niti ne pomišljamo...
Samo, da si smart AI ne spomne nekaj, na kar niti ne pomišljamo...
Zgodovina sprememb…
- spremenil: Double_J ()
Thomas ::
Kolikor se lahko zanesem na ("svojo") logiko, kolikor lahko verjamem v racionalne temelje logike - potem ne bo (hotela).
Seveda pa *lahko* pride do kvantne fluktuacije, ki spremeni READ ONLY.
Če bi jo pa pomišljal spremeniti kakšen (sub)proces, bi ga zaustavili še na nivoju njegove simulacije.
Je pa seveda vredno preveriti tudi tole moje zagotavljanje, če ne gre le za kakšen dobro zakamufliran sabotažni proces.
Direktor FBI, ki sproži najprej trajno rutinsko preiskavo proti sebi. Potem proti vsem vladnim uslužbencem, potem šele proti vsem drugim. The Constitution z vsemi zakoni in judikati, se spravi distribuirano po celem svetu v milijardokrat redundantnih kopijah. Vsaka diskrepanca sproži neodvisno preiskavo. Itd.
Jasno, da FBI nima takšnih pooblastil.
Ampak en tak ideal je treba doseči. IMO.
Seveda pa *lahko* pride do kvantne fluktuacije, ki spremeni READ ONLY.
Če bi jo pa pomišljal spremeniti kakšen (sub)proces, bi ga zaustavili še na nivoju njegove simulacije.
Je pa seveda vredno preveriti tudi tole moje zagotavljanje, če ne gre le za kakšen dobro zakamufliran sabotažni proces.
Direktor FBI, ki sproži najprej trajno rutinsko preiskavo proti sebi. Potem proti vsem vladnim uslužbencem, potem šele proti vsem drugim. The Constitution z vsemi zakoni in judikati, se spravi distribuirano po celem svetu v milijardokrat redundantnih kopijah. Vsaka diskrepanca sproži neodvisno preiskavo. Itd.
Jasno, da FBI nima takšnih pooblastil.
Ampak en tak ideal je treba doseči. IMO.
Man muss immer generalisieren - Carl Jacobi
ts ::
Intuicijo je tukaj še najbolje poslušat, boljše kot eno filozofiranje u tri krasne.
Ti bom dal nekaj razlogov zakaj bo AI nepredvidljiv:
- tisti ki bo AI naredil sploh ne bo točno vedel kako ga je naredil. primer: AI se da narediti z evolucijskim algoritmom (vendar bi trajalo milijone let). in tukaj tudi ne bi vedel točno kako je AI nastal.
- stalno se bo spreminjal in popravljal. če program sam sebe popravlja potem je jasno da ti kmalu ni več jasno kako dela.
Jaz ne bi rinil motivacije tukaj zraven. Evolucija je nastavila možgane tako da reagirajo ob različnih situacijah pravilno, in nič drugega. Evolucija ni vgrajevala motivacije v možgane.
Jaz pravim da je inteligenca odvisna od okolja v katerem se je bitje razvijalo in ne od motivacije. za vsako možno situacijo ki je možna v okolju se je razvila prava reakcija in tako so nastli možgani, poenostavljeno povedano.
zato se naprimer (globoko) v morju ni razvilo kakšnih zelo inteligentnih bitij, ta so se večinoma razvila na kopnem v vročih krajih kjer je bila narava najbolj zakomplicirana in dejavna (v afriki)
Ti bom dal nekaj razlogov zakaj bo AI nepredvidljiv:
- tisti ki bo AI naredil sploh ne bo točno vedel kako ga je naredil. primer: AI se da narediti z evolucijskim algoritmom (vendar bi trajalo milijone let). in tukaj tudi ne bi vedel točno kako je AI nastal.
- stalno se bo spreminjal in popravljal. če program sam sebe popravlja potem je jasno da ti kmalu ni več jasno kako dela.
Jaz ne bi rinil motivacije tukaj zraven. Evolucija je nastavila možgane tako da reagirajo ob različnih situacijah pravilno, in nič drugega. Evolucija ni vgrajevala motivacije v možgane.
Jaz pravim da je inteligenca odvisna od okolja v katerem se je bitje razvijalo in ne od motivacije. za vsako možno situacijo ki je možna v okolju se je razvila prava reakcija in tako so nastli možgani, poenostavljeno povedano.
zato se naprimer (globoko) v morju ni razvilo kakšnih zelo inteligentnih bitij, ta so se večinoma razvila na kopnem v vročih krajih kjer je bila narava najbolj zakomplicirana in dejavna (v afriki)
Zgodovina sprememb…
- spremenil: ts ()
Thomas ::
Sej grdo, če rečem. Ampak še bolj grdo je, če ne.
Sicer si pa rekel že sam.
Nič ne zastopiš.
Sicer si pa rekel že sam.
Nič ne zastopiš.
Man muss immer generalisieren - Carl Jacobi
Thomas ::
> Evolucija ni vgrajevala motivacije v možgane.
No, kdo pa je, če ne evolucijski proces, vgradil npr. željo po hranjenju, v možgane?!
To samo toliko, da dokažem svojo trditev, da res ne zastopiš.
No, kdo pa je, če ne evolucijski proces, vgradil npr. željo po hranjenju, v možgane?!
To samo toliko, da dokažem svojo trditev, da res ne zastopiš.
Man muss immer generalisieren - Carl Jacobi
Vredno ogleda ...
Tema | Ogledi | Zadnje sporočilo | |
---|---|---|---|
Tema | Ogledi | Zadnje sporočilo | |
» | Transcendence (strani: 1 2 )Oddelek: Sedem umetnosti | 23126 (11347) | oo7 |
» | Terminator: Genesis (strani: 1 2 3 )Oddelek: Sedem umetnosti | 32157 (19786) | vostok_1 |
» | Terminator: The Sarah Connor Chronicles (strani: 1 2 3 4 5 6 )Oddelek: Sedem umetnosti | 30525 (18790) | kitara8 |
» | Matrix 3: Revolutions Trailer (strani: 1 2 3 )Oddelek: Sedem umetnosti | 10507 (8766) | JP |