» »

Zakaj so avtonomna vozila prava stvar

Zakaj so avtonomna vozila prava stvar

Temo vidijo: vsi
««
22 / 31
»»

Utk ::

Da mercedes tako dela piše v specifikacijah.

Tody ::

Ampak ali je tesla ze odgovarjala za kak trk? Ali je ze mercedez? Vse lepo in prav ko je na vrsti marketing, ko pa pridejo odvetniki...

Gregor P ::

... bo pa pomembno, da so zadeve dobro dokumentirane.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

codeMonkey ::

Za te stvari je crna skrinjica.

BTW, danes sem zasledil, da je z letosnjim letom v veljavi sprememba regulative za level 3. Omejitev je povecana na 130 km/h, dovoljena je menjava pasov. Nemcija zna biti med prvimi clanicami, ki bodo spremembo sprejele v lokalno zakonodajo. Vsaj, ce bo tako kot pri implementaciji prve verzije.


https://unece.org/media/press/368227

The amendment to UN Regulation No. 157 adopted today by the World Forum for Harmonization of Vehicle Regulations extends the maximum speed for Automated Driving System (ADS) for passenger cars and light duty vehicles up to 130 km/h on motorways, and allows automated lane changes, among other dispositions. It will enter into force in January 2023 in those contracting parties which decide to apply it.


Mercedes se pripravlja: https://allinfo.space/2022/08/12/level-...

Zgodovina sprememb…

Gregor P ::

codeMonkey je izjavil:

Za te stvari je crna skrinjica.
... saj to mislim s tem pojmom "dokumentirano".
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

kow ::

"crne skrinjice" za avte so bullshit. Izraz nima nobenega smisla. Pac potrebujes neki recording device, ampak tudi ce se kdaj unicijo podatki - se ne splaca s tem resno ukvarjati zaenkrat.
Preveliki stroski, za premajhen gain. Pri vecini nesrec s tezko ranjenimi ali mrtvimi, je vzrok mogoce dolociti.

Zgodovina sprememb…

  • spremenil: kow ()

Gregor P ::

... je kar v tvojem interesu, da imaš tako napravo; če avto vozi sam in pride do nesreče, ti vsak podatek pride prav, sicer boš na koncu ti kriv. Ker če ne boš mogel jasno dokazati, da se je nesreča zgodila med samodejno vožnjo (ki ima "štemplj", da jo sploh smeš legalno uporabljati v te namene) - še posebej, če so človeške žrtve - boš na koncu odgovoren ti (zato je "štemplj" zelo smiseln in dobrodošel).
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Zgodovina sprememb…

  • spremenil: Gregor P ()

Utk ::

Črna skrinjica je del pogojev, da dobiš L3 štemplj.

codeMonkey ::

Kul povzetek stanja in predvsem ovir z vidika poslovnega modela.

Gregor P ::

Po mojem je edino kar jim oz. je manjkalo Muskovo blefiranje oz. v bistvu kar direktno lagajanje in zavajanje tako investitorjev in potrošnikov, kako daleč je v resnici razvoj njihove tehnologije samodejne vožnje in da robotaxiji res še niso za vogalom (v videu ocenjujejo, da je vsaj še 10 do 15 let proč). VW se najbrž neposredno po dizelgate aferi tega še ni upal - mislim saj je tudi prav da ne, da se razumemo. Musku nekako kar vsi verjamejo in vzamejo njegove besede za svete in boh ne daj, da bi v njih dvomil; medtem ko če bi vodilni v VW tako nakladali, jim itak noben ne bi verjel že v štartu (po dizel nategu pa sploh ne).
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Zgodovina sprememb…

  • spremenil: Gregor P ()

BigWhale ::

Zdaj bi bilo zanimivo videti eno izmed vseh avtonomnih vozil kako se pripelje iz Bezigrada do Fuzin. Pa tud Full Self Driving bi blo zanimiv opazovat. :)

Zgodovina sprememb…

  • spremenil: BigWhale ()

kow ::

Ne bi bilo zanimivo, ker nobeno vozilo ne bi startalo, ker bi software na zaslon napisal, da tech ni na voljo. Bi pa Tesla lahko z enim updateom zrihtala, da avto vsaj starta. Morda bi se celo varno pripeljal do Fuzin.

Zgodovina sprememb…

  • spremenil: kow ()

Gregor P ::

Vidim da tvoje navdušenje nad Muskovim FSD ne pojenja, kljub temu, da so ga v videu praktično označili za najslabše delujoč sistem.



kow je izjavil:

Se strinjam. Ne vem zakaj si sicer izpostavil samo Teslo. Vsi imajo bistveno slabse sisteme.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Gregor P ::

Še eden izmed igralcev na trgu



Vendar pa ...
"The trip included a safety driver who took control of the car multiple times, he noted."
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Zgodovina sprememb…

  • spremenil: Gregor P ()

codeMonkey ::

Prvi avtonomen avtobus: https://www.bbc.com/news/uk-scotland-ed...

Ampak z dvema operaterjema :))

BigWhale ::

Sprevodnik in prometnik. :>

In en folk je reku, da bo folk zarad avtonomih vozil ob sluzbe!

Utk ::

Pred prvimi avti je hodil človek in mahal z zastavico...

BigWhale ::

Dej, ne bit tolk resen, no. :>

(zdej je podobno pri Alfah, sam da clovek zadi postavi trikotnik)

Zgodovina sprememb…

  • spremenil: BigWhale ()

kow ::

Seveda ni nic znanstvenega v tej primerjavi, je pa vseeno zanimiva:

codeMonkey ::

Apex.AI in MOIA sta sklenila posel:

Apex.AI Operating System To Run Volkswagen Robo Ridepooling Vans

https://www.forbes.com/sites/edgarsten/...

MOIA je podjetje za MaaS (robotaxije) od VW, medtem ko je Apex.AI hitrorstoce podjetje, kjer je eden od soustanoviteljev Slovenec, njihov glavni produkt pa "avtomobilski OS" na osnovi ROS2. Seveda z vsemi potrebnimi dodelavami in predelavami ter certificiranji za funkcionalno varnost. Zgleda precej kul podjetje.

Zgodovina sprememb…

BigWhale ::

Big if true. Teslin FSD naj bi imel precej slabso statistiko nesrec kot povprecen voznik.

https://prospect.org/justice/06-13-2023...

kow ::

Ne razumem, kaj tocno sploh clanek trdi. Ce sem funkcionalno pismen, spekulira brez podatkov.

ales85 ::

kow je izjavil:

Ne razumem, kaj tocno sploh clanek trdi. Ce sem funkcionalno pismen, spekulira brez podatkov.

Ce je NHTSA zate brez podatkov, pa tudi prav. Kredibionost na 0%.

kow ::

V clanku ni bilo linka na to porocilo, vsaj jaz ga nisem nasel.

Zgodovina sprememb…

  • spremenil: kow ()

Utk ::

V članku dobesedno piše, da ne vejo v koliko od tistih 17 nesreč je bil vklopljen FSD. In da če jih je bil v vseh 17, je to katastrofa, če je bil v pol, je slabo, lahko pa da ni bil v nobenem. Kar sicer tudi jaz dvomim, ampak to ne spremeni dejstva, da tega tist, ki je pisal članek še ne ve, in zdaj nekaj špekulira.

Assuming that all these crashes involved FSD—a


plausible guess given that FSD has been dramatically expanded over the last year
,

and two-thirds of the crashes in the data have happened during that time—that implies a fatal accident rate


In other words, Tesla’s FSD system is likely on the order of ten times more dangerous at driving than humans.


Case closed, on nekaj predvideva, zato je jasno, da je FSD 10x slabši od človeka.

Zgodovina sprememb…

  • spremenil: Utk ()

ales85 ::

Lahko bi tudi Tesla dala ven tocne podatke in ne bi bilo potrebno spekulirati. Je bilo pa kar nekaj "cudnih" nezgod s Teslami in je prav, da se o tem razpravlja.
Musk pac noce razcistiti situacije. Kdo bi vedel zakaj.

Utk ::

Članek tudi meše FSD in autopilot, ki sta dva različna sistema. Autopilot lahko samo prepreči nesrečo, povzročit je ne more, ker pri njem še zmeraj vozi človek. Pika.
FSD je malo drugačen in odvisno od zakonov tam kolk odgovornosti je na komu. Sigurno človek še zmeraj ne sme spati zraven, ampak FSD se recimo sam odloči kdaj bo speljal v križišču in tako lahko povzroči nesrečo. Autopilot pa ne.

ales85 ::

Ni vse odvisno od speljevanja v kriziscu, da se povzroci nesreca. Ne glede na to kolikorat napises pika :))

Cerkev ste ze postavili?

Utk ::

Seveda ne. Ampak autopilot nima nobene take pristojnosti za neke akcije, ki bi lahko povzročile nesrečo, pa da jih šofer še zmeraj ne bi MORAL nadzirat.

ales85 ::

Saj mora FSD tudi 100% nadzirati. Ali se je kaj spremenilo, pa sem spregledal?

Utk ::

Normalno. Ampak fsd v teoriji ima nekaj več možnosti, ki jih ap nima.

ales85 ::

Ok, ampak to ne pomeni nic v tem kontekstu... Oba sistema lahko naredita napake, le razlicne. In oba morata biti 100% nadzorovana.

codeMonkey ::

Utk je izjavil:

Autopilot lahko samo prepreči nesrečo, povzročit je ne more, ker pri njem še zmeraj vozi človek. Pika.


Seveda jo lahko. Pa ja ne bos rekel, da Autopilot ne more povzrociti nenadnega zaviranja, pospesevanja ipd. Svasta. Ce clovek s tem upravlja, se ne pomeni, da so potem kar odpovedi ne-nevarne.

Zgodovina sprememb…

Gregor P ::

Povsem logično, da imajo tudi avtopiloti svoje omejitve in da moraš biti zato še posebej pozoren na to, kaj se dogaja na cesti pred teboj; ker večkrat se sicer da kar lepo predvideti, kdaj bo sistem začel sam zavirati (npr. ko je vozilo pred teboj rahlo na tvojem pasu, ali pa recimo ko iz Celovške pripelješ proti centru na veliko križišče s Tivolsko in pasovi malo zavijajo na desno, to kar zmede avtopilota, ker kar naenkrat misli, da gredo vozila na tvoj pas), ampak seveda najbolj hude situacije pa so tiste, kjer te sistem dobesedno hudo preseneti s svojo reakcijo. Nenadno pospeševanje pa sem doživel samo enkrat in niti ne vem, kaj je bilo krivo - kot da sistem pač ni zaznal vozila pred seboj (radarski tempomat pa je seveda bil nastavljen na višjo hitrost od vozila pred menoj; a če zazna vozilo se tudi temu primerno obnaša in ne pospeši); in potem moraš pač poseči v situacijo. Se pa razume, da če je pa vreme slabo, močno dežuje ipd. potem je pa itak boljše večino teh pomočnikov kar lepo izklopiti, ker itak ne delujejo pravilno v takšnih razmerah.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Zgodovina sprememb…

  • spremenil: Gregor P ()

codeMonkey ::

Gregor P je izjavil:

Se pa razume, da če je pa vreme slabo, močno dežuje ipd. potem je pa itak boljše večino teh pomočnikov kar lepo izklopiti, ker itak ne delujejo pravilno v takšnih razmerah.


Predvsem se morajo sami izklopiti, oz. bi morali prepreciti vklop. Za Level 3 naprej to itak velja, ker imajo po definiciji vgrajen ODD, ampak nekateri Level 2++ imajo ze toliko funkcionalnosti, vec kot je bilo v osnovi misljeno, da bi to moralo veljati tudi za njih.

Gregor P ::

Se strinjam, izklop in jasno opozorilo.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Utk ::

codeMonkey je izjavil:

Utk je izjavil:

Autopilot lahko samo prepreči nesrečo, povzročit je ne more, ker pri njem še zmeraj vozi človek. Pika.


Seveda jo lahko. Pa ja ne bos rekel, da Autopilot ne more povzrociti nenadnega zaviranja, pospesevanja ipd. Svasta. Ce clovek s tem upravlja, se ne pomeni, da so potem kar odpovedi ne-nevarne.

Ajde, nenadno zaviranje je nevarno, ampak ni tako lahko rečt ali je bilo res brezvezno ali ne, še zmeraj mora tist zadaj imet neko varnostno razdaljo itd.
Pospeševanje pa, tudi če ima neka tesla 400 konjev, ne pomeni, da jih na avtopilotu vseh 400 koristi. Težko bo tako strašno pospeševanje tako na hitro, da ne boš imel časa pritisnit zavoro, in če že ne, da bojo kar ljudje umrli zarad take nesreče.
Še zmeraj bi moral za vsako tako nesrečo, ki jo povzroči, jih vsaj 10 preprečit.

Zgodovina sprememb…

  • spremenil: Utk ()

ales85 ::

Utk je izjavil:

.l
Pospeševanje pa, tudi če ima neka tesla 400 konjev, ne pomeni, da jih na avtopilotu vseh 400 koristi.

Ko SW pocne neumnosti, lahko pocne tudi 400 konjske neumnosti.

codeMonkey ::

Utk je izjavil:

codeMonkey je izjavil:

Utk je izjavil:

Autopilot lahko samo prepreči nesrečo, povzročit je ne more, ker pri njem še zmeraj vozi človek. Pika.


Seveda jo lahko. Pa ja ne bos rekel, da Autopilot ne more povzrociti nenadnega zaviranja, pospesevanja ipd. Svasta. Ce clovek s tem upravlja, se ne pomeni, da so potem kar odpovedi ne-nevarne.

Ajde, nenadno zaviranje je nevarno, ampak ni tako lahko rečt ali je bilo res brezvezno ali ne, še zmeraj mora tist zadaj imet neko varnostno razdaljo itd.
Pospeševanje pa, tudi če ima neka tesla 400 konjev, ne pomeni, da jih na avtopilotu vseh 400 koristi. Težko bo tako strašno pospeševanje tako na hitro, da ne boš imel časa pritisnit zavoro, in če že ne, da bojo kar ljudje umrli zarad take nesreče.
Še zmeraj bi moral za vsako tako nesrečo, ki jo povzroči, jih vsaj 10 preprečit.


Ni tako enostavno, kot si predstavljas. Izbiras si neke ugodne scenarije, ko bi moral najbolj neugodne. Ko se ocenjuje tveganje za doloceno nevernost pri neki odpovedi, se oceni tudi faktor obvladljivosti, s strani voznika in soudelezenih. V praksi imas razlicne slucaje, najbolj pomembni pa so tisti najbolj kriticni.

Pa kdo pravi, da bi moral sistem za vsako povzroceno nesreco jih 10 prepreciti? Kako ves, da je tako? Kaj ce preprecuje manjse nesrece, povzroca pa take s smrtnim izidom? Ce so stevilke s smrtnim izidom po prevozenih kilometrih previsoke, glede na pricakovanja (trenutno stanje), potem sistem enostavno ni ustrezen.

Zgodovina sprememb…

Utk ::

Ce so stevilke s smrtnim izidom po prevozenih kilometrih previsoke, glede na pricakovanja (trenutno stanje), potem sistem enostavno ni ustrezen.

Ja, ČE, ampak tist članek nima teh številk. Samo špekulira.

kow ::

Nehajte se prepucavat, pa lepo priznajte, da je clanek click-bait.

codeMonkey ::

Pri prvih sistemih je bilo to precej ocitno, ker teoreticno niso nabrali se dovolj kilometrov (z mobileye in po tem, ko so delali po svoje). Nek profestor je takrat to racunal in so bile po prvih smrtnih zrtvah stevilke precej zanimive, v smislu koliko kilometrov morajo nadalje narediti brez nesrece s smrtnim izidom, da lahko trdijo, da je sistem enakovreden pricakovanem stanju, pa so se se naprej pojavljale. Ampak s stopenjevanjem proizvodnje trojke in s FSD je zdaj to precej tezko in je brez resnih podatkov res spekuliranje. Vseeno pa imajo te podatke pri NHTSA, pa se tam niti ne, ker jih pri Tesli ovirajo s triki: https://futurism.com/tesla-nhtsa-autopi...

Zgodovina sprememb…

Utk ::

This points out some major flaws in the self-driving features, especially given the probe's assertion that available video of each of the collisions shows that "the approach to the first responder scene would have been visible to the driver an average of 8 seconds" before impact.

Tu se je za vprašat kaj je šofer delal 8 sekund. Ok, AP bi moral piskat, gor, dol, ampak če bi vedel, da mora piskat, bi tudi vedel, da mora tudi še kako drugače ukrepat. Očitno tega ni vedel. Voznik bi pa v 8 sekundah vseeno moral malo vržt uč na cesto.

Zgodovina sprememb…

  • spremenil: Utk ()

codeMonkey ::

Utk je izjavil:

ampak če bi vedel, da mora piskat, bi tudi vedel, da mora tudi še kako drugače ukrepat.


Zakaj? Piskati bi moral ker ni zaznal prisotnosti voznika. Kako bo ukrepal je cisto druga stvar. Razen ce imas v mislih, da bi se moral izklopiti. To bi bilo se najbolje. Ampak to je itak ze odvracanje od teme in osnovnega problema. Edina resitev je standardna naprava, kot je definirana po UNECE, ne pa da pristojni organi prosijo proizvajalca za podatke in sodelovanje. Pri Tesli je precej nekih signalov, da raje malo mutijo

Zgodovina sprememb…

Gregor P ::

Tu potem pridemo nazaj tudi do tistega problema, kako so marketinško zavajajoče zapakirali ta "Full Self-Driving Capability" kupcem in kaj slednji potem mislijo, da so dejansko kupili ter se potem temu primerno obnašajo v teh vozilih.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Gregor P ::

Sem že mislil, da sem kliknil na staro novico, a očitno ne :D

RTVS: Musk napovedal samovozeče tesle še v tem letu
Direktor Tesle priznal, da se je uštel pri časovnici
Proizvajalec električnih avtomobilov Tesla naj bi še v tem letu predstavil avtomobil, sposoben povsem avtonomne vožnje, je napovedal izvršni direktor družbe Elon Musk.


Počutim se, kot da smo temu bližje kot kadar koli prej.


... po mojem je to isti "marketing 2016 paket" sedaj še za kitajsko javnost.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Zgodovina sprememb…

  • spremenil: Gregor P ()

DamijanD ::

Avtom je dolgčas, pa se grejo wreckfest:
- cruise se je zaletel v gasilski avto na nujni vožnji (https://getcruise.com/news/blog/2023/fu...
- isto noč v istem mestu:
The same night, a Cruise car collided with another vehicle at 26th and Mission streets. The company said another driverless car, which had no passengers, entered the intersection on a green light when another car ran a red light at high speed. The driverless car detected the other car and braked, according to Cruise, but the two cars still collided...
- zastoj, ker je padla povezava:
https://www.msn.com/en-us/news/us/san-f...

Zdaj so cruisu odredili, da za polovico zmanjša svojo aktivno floto, dokler se prva nesreča ne razišče.

BigWhale ::

To, da se je avto zaletel v nekoga, ki je prevozil rdeco luc je problem? Verjetno je prekrskarja zaznal in zaviral prej kot bi to storil clovek.

kow ::

Za rdeco luc ne poznamo natancnih okoliscin oz. nimamo posnetka. Ne razumem zakaj moras "braniti" Cruise? Bi Teslo tudi?

Ce prav razumem, so gasilci imeli vkljuceno sireno kar pomeni, da bi voznik (ki ne poslusa glasne muzike) verjetno vozil previdno oz. ustavil.

Zgodovina sprememb…

  • spremenil: kow ()

BigWhale ::

kow je izjavil:

Za rdeco luc ne poznamo natancnih okoliscin oz. nimamo posnetka. Ne razumem zakaj moras "braniti" Cruise? Bi Teslo tudi?


V taksnih okoliscinah, kjer imamo samo podatke, ki jih imamo, in kot nekdo, ki so ga dvakrat povozili na prehodu za pesce, ko je v mnozici ljudi pri zeleni luci preckal cesto, seveda. :))

Nikoli ni kriv tisti, ki je pravilno preckal krizisce. Bi lahko morda preprecil nesreco? Morda, vemo pa ne tega.

kow je izjavil:

Ce prav razumem, so gasilci imeli vkljuceno sireno kar pomeni, da bi voznik (ki ne poslusa glasne muzike) verjetno vozil previdno oz. ustavil.

Tukaj je povsem jasno, da je avtonomnemu vozilu tezko sprejeti odlocitev, da v primeru sirene in izredne situacije, zapelje na plocnik in se umakne, ali pa celo zapelje na pas, ki gre v nasprotno smer. Clovek taksno odlocitev sprejme v delcku sekunde in resi situacijo.
««
22 / 31
»»


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

General Motors bo zaprl Cruise (strani: 1 2 )

Oddelek: Novice / Nakupi / združitve / propadi
583118 (786) BT52
»

Tesla povečala proizvodnjo in prodajo vozil (strani: 1 2 )

Oddelek: Novice / Rezultati
705519 (1937) dexterboy
»

NHTSA: Teslin Autopilot smrtno nevaren (strani: 1 2 3 )

Oddelek: Novice / Znanost in tehnologija
1188818 (4104) c3p0
»

Mercedes-Benz v Evropi prehitel Teslo (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
8415752 (10683) DamijanD
»

Za predlansko nesrečo tesle odgovorna Tesla in voznik (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
5214063 (8914) Meizu

Več podobnih tem