Novice » Ostale najave » Najhujša nesreča avtonomnega vozila doslej, krivec človek
m0LN4r ::
se najmanj me zanima ali so njegovi algoritmi optimalni ali ne, jaz pac ne pristanem na to iz cisto nacelnih razlogov.
Odpovejo ti zavore pri 150km/h. Situacija je taka, da lahko zbiješ 7 nosečnic in 10 malčkov, ali pa zgrmiš v prepad. Po svojem načelnem prepričanju boš naredil kaj? Algoritem bo za tako odločitev porabil nekaj nanosekund, odločitev seveda tebi ne bo všeč. Kaj bi naredil pa ti?
V kateri drzavi so nosecnice?
https://ref.trade.re/38mvdvxm
Trade Republic 38MVDVXM
Trade Republic 38MVDVXM
Unilseptij ::
se najmanj me zanima ali so njegovi algoritmi optimalni ali ne, jaz pac ne pristanem na to iz cisto nacelnih razlogov.
Odpovejo ti zavore pri 150km/h. Situacija je taka, da lahko zbiješ 7 nosečnic in 10 malčkov, ali pa zgrmiš v prepad. Po svojem načelnem prepričanju boš naredil kaj? Algoritem bo za tako odločitev porabil nekaj nanosekund, odločitev seveda tebi ne bo všeč. Kaj bi naredil pa ti?
Jao jao... algoritem je nekdo definiral in mene ne zanima, zakaj je avto to izracunal, ampak zakaj je razvijalec tak algoritem sploh implementiral. In ce ze hoces.... ce sem v avtu jaz s tremi majhnimi otroki in zeno, bom dvakrat premislil, kaj je v taki situaciji pac res optimalna resitev. In ne vem, ce mi lahko kdo zaradi tega zameri?
dober clanek na to temo je tule: https://www.wired.com/2014/05/the-robot...
energetik ::
Dajte si še kakšno bolj absurdno sitaucijo izmislit kot 10 nosečnic sredi AC, kjer je ob strani 100m prepad..
Sicer pa bo verjetno vsak nagonsko reševal svoje življenje, sploh če vozi po predpisih in nič kriv. Autopilot bo po defoltu vedno vozil po predpisih in se situaciji, da bi bil kriv, sploh ne bo znašel. Zato bi po mojem moral v takih primerih ščititi voznika/potnike, ne pa ljudi, ki ne upoštevajo predpisov (in se znajdejo sredi AC).
Sicer pa bo verjetno vsak nagonsko reševal svoje življenje, sploh če vozi po predpisih in nič kriv. Autopilot bo po defoltu vedno vozil po predpisih in se situaciji, da bi bil kriv, sploh ne bo znašel. Zato bi po mojem moral v takih primerih ščititi voznika/potnike, ne pa ljudi, ki ne upoštevajo predpisov (in se znajdejo sredi AC).
m0LN4r ::
Takih avtov, ki vozijo povsem avtonomno, pa se objekte prepoznavajo, je trenutno zelo malo v isti karoseriji.
https://ref.trade.re/38mvdvxm
Trade Republic 38MVDVXM
Trade Republic 38MVDVXM
darkolord ::
Autopilot bo po defoltu vedno vozil po predpisih in se situaciji, da bi bil kriv, sploh ne bo znašel. Zato bi po mojem moral v takih primerih ščititi voznika/potnike, ne pa ljudi, ki ne upoštevajo predpisov (in se znajdejo sredi AC).Sploh ni nujno, da kršijo predpise, pa še vedno stojijo sredi avtoceste (ali pač kakšna druga situacija).
Zgodovina sprememb…
- spremenilo: darkolord ()
BigWhale ::
Noben algoritem ne bo zapeljal s ceste, kaj sele, da bi prebil kako ogrado. Ze razmisljat o tem je precej neumno. Algoritem je v bistvu preprost:
1. je kaj pred mano? Da.
2. Se lahko ustavim? Ne.
3. Lahko obvozim zadevo? Ne, nevem, mogoce, katerikoli odgovor, ki ni Da.
4. Bremze na ful, zategni pasove, pripravi airbag, poklici 113.
1. je kaj pred mano? Da.
2. Se lahko ustavim? Ne.
3. Lahko obvozim zadevo? Ne, nevem, mogoce, katerikoli odgovor, ki ni Da.
4. Bremze na ful, zategni pasove, pripravi airbag, poklici 113.
sesobebo ::
a vids. jst sm se pa glih spravu pripravljat dokumentacijo za pridobitev koncesije za kopanje prepadov ob regionalkah...
Unilseptij ::
Noben algoritem ne bo zapeljal s ceste, kaj sele, da bi prebil kako ogrado. Ze razmisljat o tem je precej neumno. Algoritem je v bistvu preprost:
1. je kaj pred mano? Da.
2. Se lahko ustavim? Ne.
3. Lahko obvozim zadevo? Ne, nevem, mogoce, katerikoli odgovor, ki ni Da.
4. Bremze na ful, zategni pasove, pripravi airbag, poklici 113.
OK, torej kaj pa tale primer. Otrok skoci na cesto, zaustavitev je nemogoca, varna izognitev tudi. Vendar pa lahko avto zapelje na plocnik, kjer bo podrl kanto za smeti in leseno ograjo. Kaj bi v tem primeru izracunal tvoj algoritem?
Truga ::
Ce bo podru kanto in leseno ograjo se to men zdi kot varno? Al si aktivist drustva proti mucenju kant in ograj, al kwa se zdej kle usajas?
Mare2 ::
Sem gledal video. Teslin avto se je, kjer je delo na cesti, ravnal po belih stranskih črtah in je moral voznik posredovati. Saj veljajo rumene. Kako bi pa ta samovozeči avto ravnal?
http://bit.ly/Navodilo123 Podpora za N26 Mastercard za Slovenijo
BigWhale ::
Unilseptij je izjavil:
OK, torej kaj pa tale primer. Otrok skoci na cesto, zaustavitev je nemogoca, varna izognitev tudi. Vendar pa lahko avto zapelje na plocnik, kjer bo podrl kanto za smeti in leseno ograjo. Kaj bi v tem primeru izracunal tvoj algoritem?
Trenutno avto ne izracuna nicesar. Ker je se prebutast in ne more vedeti a bo podrl kanto za smeti al pa mogoce cloveka, ki je sklonjen in si zavezuje cevlje. Avto tudi ne ve a je na cesto skocil otrok al pa kanta za smeti.
Clovek, ki bi vozil v tem primeru, pa ne ve a ima na desni strani kolesarja, a je na plocniku za njim tricikel in na njem dvojcka in ce se za ograjo ravno ne skrivajo eni mulci, ki so sli po soli na skrivaj na cik.
V vsakem primeru, ce pride do zbitja pesca, bo avtonomno vozilo naredilo manj skode kot clovek. Clovek bo potreboval, v povprecju, vec kot eno sekundo, da sploh zacne zavirati. Pri avtonomnem vozilu se ta cas meri v milisekundah. Ce gre res za 'skocil na cesto' situacijo lahko clovek otroka povozi se preden zacne zavirat. Avtonomnemu vozilu se to zgodi precej tezje.
Se povezava do ene 'brake reaction time' studije.
Sem gledal video. Teslin avto se je, kjer je delo na cesti, ravnal po belih stranskih črtah in je moral voznik posredovati. Saj veljajo rumene. Kako bi pa ta samovozeči avto ravnal?
V avstriji v taksnem primeru veljajo rdece crte. :) To vse spada med tistih 10% avtonomne voznje, ki bodo se nekaj casa problem pri avtonomnih vozilih.
Zgodovina sprememb…
- spremenil: BigWhale ()
7982884e ::
teli miselni eksperimenti z otroci in nosecnicami in prepadi postajajo ze dolgocasni.
a clovek pa v vsakem trentku natanko ve, kaksna je "vrednost" vsake situacije, kamor lahko zavije, ce je treba? my ass. v praksi bo vecina ljudi ravnala instinktivno, zavila stran od ovire in se zabila v karkoli ze pac je na plocniku (ce je tam plocnik), tudi ce se po njem tisti hip prevaza detonator za bombo v bliznjem vrtcu.
in v praksi bo avtonomni avto pac vecinoma lahko zadost hitro zadost mocno zabremzal, da hudih posledic sploh ne bo.
a clovek pa v vsakem trentku natanko ve, kaksna je "vrednost" vsake situacije, kamor lahko zavije, ce je treba? my ass. v praksi bo vecina ljudi ravnala instinktivno, zavila stran od ovire in se zabila v karkoli ze pac je na plocniku (ce je tam plocnik), tudi ce se po njem tisti hip prevaza detonator za bombo v bliznjem vrtcu.
in v praksi bo avtonomni avto pac vecinoma lahko zadost hitro zadost mocno zabremzal, da hudih posledic sploh ne bo.
Mare2 ::
Na TV je bilo, da imajo ti avtomobili pomnjene silhuete, na podlagi tega tudi predvidevanja. Np. Človek v več 100 variantah.
http://bit.ly/Navodilo123 Podpora za N26 Mastercard za Slovenijo
7982884e ::
na TVju je vse sorta stvari. "ti avtomobili" niso iste sorte in imajo drasticno razlicne nacina zaznavanja okolice. google zajema oblake 3d tock in segmentira v ze naucene objekte. tesla in ostali v komercialni uporabi vecinoma zaznavajo posamezne regije v kamera feedu. opcij je ogromno in nic ti ne prepoveduje, da bi avto vedel, da ce je zraven bele crte se rumena, se ne bi ravnal po rumeni.
Unilseptij ::
Vsako avtonomno vozilo, če naj bo res avtonomno, mora imeti nek "crash optimisation" algoritem, drugače se bo dogajalo veliko nesmiselnih nesreč... oziroma bodo vsaj posledice teh nesreč, tudi če jih bo manj, v splošnem hujše. Seveda obstaja najpreprostejši algoritem, da naj avto, ki mu grozi trk, samo zavira in ne spreminja smeri, ampak verjetno se da stvari narediti bolje. Človeški voznik ravno tako v primeru neizbežnega trka izvede (bolj ali manj nagonsko) nek podoben algoritem, le da so ti lahko vseh vrst, od popolnoma nesmiselnih, do genialnih, ki dejansko rešujejo življenja. Problem je, kako definirati neke splošne principe, ki naj bi razvijalce vodili pri načrtovanju takih algoritmov, ker hitro naletimo na problem smiselnega ovrednotenja človeškega življenja ali vsaj zdravja. In meni niti približno ni jasno, kako se bo to rešilo, strah me je le, da bo na koncu stroj dobil (verjetno prvič v zgodovini!) moč oziroma zmožnost, da odloča o tem, kdo bo živel ali umrl.
poweroff ::
Saj stroji (algoritmi) že odločajo o življenju in smrti na nek način. Odločajo recimo o naši ekonomiji.
sudo poweroff
cegu ::
Če slučajno kdo ve, kako tole najde parking. :)
Gre na Dolgi most, kjer je ceneje :)
Ali pa parkira na pločniku, če pa zazna redarja, pa preparkira malo naprej.
Zgodovina sprememb…
- spremenil: cegu ()
nevone ::
Moral Machine
V tako podobnih situacijah, ko naj bi se odločal med enakim številom različnih ljudi, se vrže kovanec. Ne razumem, kako se moralno lahko odločiš, ali boš povozil 2 otroka in 2 moška ali 1 otroka in 3 ženske.
o+ nevone
Either we will eat the Space or Space will eat us.
nevone ::
Enostavno.... Otrok je 2, Moški je 1, Ženska je 0,5. Zdaj pa seštevaj
Kako se potem odloči v primeru 2 žensk in 1 otroka, in 3 moškimi?
o+ nevone
Either we will eat the Space or Space will eat us.
energetik ::
Ta moral machine je spet črno-bela. Kot da ni možen noben vmesni ali stranski izid. Kar je zelo redko. V veliki večini primerov je vedno kakšna varianta, ki se konča samo s poškodovano pločevino in kakšno prasko.Moral Machine
V tako podobnih situacijah, ko naj bi se odločal med enakim številom različnih ljudi, se vrže kovanec. Ne razumem, kako se moralno lahko odločiš, ali boš povozil 2 otroka in 2 moška ali 1 otroka in 3 ženske.
o+ nevone
nekikr ::
Enostavno.... Otrok je 2, Moški je 1, Ženska je 0,5. Zdaj pa seštevaj
Kako se potem odloči v primeru 2 žensk in 1 otroka, in 3 moškimi?
o+ nevone
Recimo tako, da ima prednost skupina, kjer je več otrok. Če jih je povsod enako, potem pa upoštevaš še gmotno škodo. Ali uporabiš kakšno izmed ostalih 500 milijonov možnosti, tako kot delamo pri ostalih zakonih.
nevone ::
Recimo tako, da ima prednost skupina, kjer je več otrok.
Ali lahko to kako utemeljiš? Da ne bo to samo neko arbitrarno pravilo.
o+ nevone
Either we will eat the Space or Space will eat us.
nekikr ::
Utemeljim lahko samo na način, kot trenutno postavljamo vsa ostala pravila. Če dovolj ljudi na istem območju misli enako, potem dobiš za rezultat kaj je moralno in kaj ni. Prepričan sem, da če bi po cesti spraševal naključnih 500 ljudi, kdo ima prednost pri reševanju, moški, ženska, ali otrok, da bi dobil precej enak odgovor iz ust večine, t.j. otrok. Torej, AI prvo reši otroke v opisanem primeru. V Iranu bi bilo najbrž moralno, da AI reši otroka in zapelje čez žensko kar tako, za foro. Stvar dogovora pač, kot pri vseh drugih pravilih.
nevone ::
Meni je bolj sprejemljivo, da se v takem primeru meče kovanec. Ampak te opcije ta Moral Mashine sploh nima. Kako potem lahko veš, da se ljudje za to opcijo ne bi odločali? Ker kdo sem jaz, da ljudem določam vrednost.
o+ nevone
o+ nevone
Either we will eat the Space or Space will eat us.
nekikr ::
Preresno si vzela moj "predlog", ki to sploh ni. Kar sem hotel povedati je, da se skupaj odločimo kaj je moralno in prav, če imamo na voljo vse možne kombinacije. Nekdo bo rekel, da prvo rešiš lastnino, 20 drugih, da je treba rešiti otroka, 5 jih bo reklo, da žensko v vsakem primeru, 2 pa, da naj bo random. Moralno v tem primeru je, da AI reši otroka, ker je tako pravilo. Meni je tudi age of consent (recimo, ker je tudi občutljiva tema) 13 let navadno posilstvo, v Argentini so se pa odločili, da je to ok. V Mehiki še leto prej. Ne, ne obešaj se na to, ker je mišljeno samo kot moralna dilema oz. primer, kaj je nekje moralno in drugje ni. Ker jaz (ali ti, ali kdorkoli) nisva nobena avtoriteta, da bi o tem odločala. Kot skupnost pa pravno in neformalno oblikujemo prav vse norme.
nevone ::
Ker jaz (ali ti, ali kdorkoli) nisva nobena avtoriteta, da bi o tem odločala. Kot skupnost pa pravno in neformalno oblikujemo prav vse norme.
Kako si lahko drugače član skupnosti, ki oblikuje norme, kot tako, da veš, da imaš vpliv kot posameznik?
Kar se pa tiče odločitve (se mi zdi boljši izraz od morale), da ima otrok prednost pred odraslim, je pa to smiselno dokler ima odrasli pod istimi pogoji več možnosti, da preživi in s tem možnost, da v končni fazi lahko preživita oba.
o+ nevone
Either we will eat the Space or Space will eat us.
nekikr ::
Kako si lahko drugače član skupnosti, ki oblikuje norme, kot tako, da veš, da imaš vpliv kot posameznik?
Ah daj no, a nisi že prestara za te pravljice o demokraciji in o tem, kako tvoj glas pa res šteje?
Kar se pa tiče odločitve (se mi zdi boljši izraz od morale), da ima otrok prednost pred odraslim, je pa to smiselno dokler ima odrasli pod istimi pogoji več možnosti, da preživi in s tem možnost, da v končni fazi lahko preživita oba.
To je zdaj spet drug scenarij. Govorila sva o tem, da lahko zbiješ otroka, žensko ali moškega (morda bolje samo odraslega). V idealnem scenariju bi seveda AI pogledal koliko otrok imata odrasla, babic in dedkov, socialno stanje itd. itd. in na podlagi res vseh podatkov naredil en izračun, koga se bolj "splača" rešiti tudi s tega vidika (in s tega, "letalskega", najprej nadenite masko sebi in nato otroku). Ampak to ni AI temveč znanstvena fantastika, ker je tako oddaljeno, da nima smisla. Avtonomna vozila so pa tukaj in sedaj v razvoju, za časa najinih življenj bodo pa najbrž vozila po cesti.
nevone ::
Ah daj no, a nisi že prestara za te pravljice o demokraciji in o tem, kako tvoj glas pa res šteje?
Čemu potem ti govoriš o skupnosti?
Avtonomna vozila so pa tukaj in sedaj v razvoju, za časa najinih življenj bodo pa najbrž vozila po cesti.
Ja. In če bi spraševali ljudi, kako naj se odločajo, potem bi jaz v primerih, za katere sprašuje Moral Machine, glasovala za met kovanca.
Ti pa bi, če te prav razumem, odločitev prepustil drugim.
o+ nevone
Either we will eat the Space or Space will eat us.
Zgodovina sprememb…
- spremenila: nevone ()
nekikr ::
Čemu potem ti govoriš o skupnosti?
Ker kljub vsemu veljajo moralne vrednote v skupnosti. Takšne ali drugačne.
Ti pa bi, če te prav razumem, odločitev prepustil drugim.
Jaz bi bil v množici, ki pravi, da "Think of the children!".
nevone ::
Jasno, da je v prvi vrsti pomembna skrb za to, da se takšne situacije prepreči.
In tudi se strinjam, da so te situacije zelo za lase privlečene, je pa njihovo reševanje lahko dobra miselna telovadba za razjasnjevanje dilem, katerih niti ljudje nimamo povsem razčiščenih.
Ko sem šla pogledat ta test za Moral Mashine, se v primeru, ki mi je bil prvi serviran, enostavno nisem mogla odločit kaj bi bilo bolj moralno in sem si rekla, da ne bom kar nekaj izbrala zato sem šla ven iz programa in še enkrat notri, in je bil problem sicer drugačen, ampak vsebinsko povsem enak. Potem mi je prišlo na misel, da bi bilo v teh primerih iz mojega stališča najbolj "pravično" da odloči naključje.
Ampak, še enkrat. Zadovojiti se s situacijo, da izbira naključje, je daleč za tisto, da se poskuša takšne situacije preprečiti.
o+ nevone
In tudi se strinjam, da so te situacije zelo za lase privlečene, je pa njihovo reševanje lahko dobra miselna telovadba za razjasnjevanje dilem, katerih niti ljudje nimamo povsem razčiščenih.
Ko sem šla pogledat ta test za Moral Mashine, se v primeru, ki mi je bil prvi serviran, enostavno nisem mogla odločit kaj bi bilo bolj moralno in sem si rekla, da ne bom kar nekaj izbrala zato sem šla ven iz programa in še enkrat notri, in je bil problem sicer drugačen, ampak vsebinsko povsem enak. Potem mi je prišlo na misel, da bi bilo v teh primerih iz mojega stališča najbolj "pravično" da odloči naključje.
Ampak, še enkrat. Zadovojiti se s situacijo, da izbira naključje, je daleč za tisto, da se poskuša takšne situacije preprečiti.
o+ nevone
Either we will eat the Space or Space will eat us.
energetik ::
Ko sem šla pogledat ta test za Moral Mashine, se v primeru, ki mi je bil prvi serviran, enostavno nisem mogla odločit kaj bi bilo bolj moralno in sem si rekla, da ne bom kar nekaj izbrala zato sem šla ven iz programa in še enkrat notri, in je bil problem sicer drugačen, ampak vsebinsko povsem enak. Potem mi je prišlo na misel, da bi bilo v teh primerih iz mojega stališča najbolj "pravično" da odloči naključje.No, nekaj je potrebno gledati tudi CPP. Če gre za nek mejni primer, vendarle odtehta da pešci ignorirajo dogovor o rdeči luči., npr.
Zgodovina sprememb…
- spremenilo: energetik ()
nevone ::
No, nekaj je potrebno gledati tudi CPP. Če gre za nek mejni primer, vendarle odtehta da pešci ignorirajo dogovor o rdeči luči., npr.
Ja, to se strinjam. Kršenje pravil ima lahko za posledico slabši izid za tistega, ki pravila krši, ker je v bistvu imel možnost vpliva na ugodnješi izid.
o+ nevone
Either we will eat the Space or Space will eat us.
BigWhale ::
Ful bo smešn, k bo nekdo umrl med prevozom in pol bo prišel na zabavo mrtev. :>
Do zdej je blo:
"Janeza vceri ni blo, ker ga je infarkt med vožnjo in je avto zletel s ceste."
Pol bo pa:
"Janez je pokvaril celo zabavo. Prišel je mrtev."
Do zdej je blo:
"Janeza vceri ni blo, ker ga je infarkt med vožnjo in je avto zletel s ceste."
Pol bo pa:
"Janez je pokvaril celo zabavo. Prišel je mrtev."
nevone ::
Ne, ne, med vožnjo boš priklopljen na naprave za preverjanje zdravstvenega stanja in te bo avto avtomatično odpeljal v bolnišnico.
o+ nevone
o+ nevone
Either we will eat the Space or Space will eat us.
matobeli ::
Že danes imajo knof "SOS" eni avti. Čez 20let bo to standard. S tem da te bo avto res samo še v bolnico peljal.
BigWhale ::
matobeli ::
Pa še breath-a-nizer. Si boš določil do katere meje alkohola v krvi te avto še pelje do naslednje gostilne, v katerem območju samo še domov in nad katero mejo direkt na urgenco.
Pa če se ti dvigne med vožnjo še...
Pa če se ti dvigne med vožnjo še...
MrStein ::
Že danes imajo knof "SOS" eni avti. Čez 20let bo to standard. S tem da te bo avto res samo še v bolnico peljal.
Pol bos moral met vec SOS gumbov. En bo, za medicinsko pomoc, drug bo za policijo, tretji za gasilce. :>
En bo, avto pa bo sam ugotovil kaj rabiš.
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
MrStein ::
S pametjo. (umetno, seveda)
Motiti se je človeško.
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
Motiti se pogosto je neumno.
Vztrajati pri zmoti je... oh, pozdravljen!
Vredno ogleda ...
Tema | Ogledi | Zadnje sporočilo | |
---|---|---|---|
Tema | Ogledi | Zadnje sporočilo | |
» | Najhujša nesreča avtonomnega vozila doslej, krivec človek (strani: 1 2 3 )Oddelek: Novice / Ostale najave | 32101 (25918) | MrStein |
» | Googlovi samovozeči avtomobili povzročili prvo prometno nesrečoOddelek: Novice / Znanost in tehnologija | 10673 (7246) | Okapi |
» | Prva nesreča Googlovih avtonomnih avtomobilov s poškodovanci, krivda drugje (strani: 1 2 )Oddelek: Novice / Znanost in tehnologija | 24638 (19617) | St235 |
» | Dve novi nezgodi Googlovih samovozečih avtomobilov, povzročitelji drugi voznikiOddelek: Novice / Znanost in tehnologija | 9283 (6219) | ales85 |
» | Google: naši avtomobili v 11 nesrečah, nikdar krivi (strani: 1 2 )Oddelek: Novice / Znanost in tehnologija | 34798 (26089) | AndrejO |