» »

Zakaj so avtonomna vozila prava stvar

Zakaj so avtonomna vozila prava stvar

Temo vidijo: vsi
««
27 / 28
»»

kow ::

Waymo vs FSD primerjava:

codeMonkey ::

zakaj primerjati level 2 z level 4? Hruske in jabolka.

Zgodovina sprememb…

Gregor P ::

Zato ker ne razumejo, kako te stvari dejansko delujejo v ozadju in se tega lotevajo bolj na "filozofski" ravni :D
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

kow ::

codeMonkey je izjavil:

zakaj primerjati level 2 z level 4? Hruske in jabolka.


Ker je zanimivo primerjati razlicne sisteme. Po videnem, so v taksnih mestih Waymotov trg upokojenci, ki ne vozijo. Morda tudi otroci, ki imajo aktivnosti in jih mame nocejo razvazati. Je pa kar malo sramotno za Waymo, da ga Tesla casovno nabrise prakticno na domacem terenu. Je pa tudi res, da to niti ni blazno pomembno, ker bo prej ali slej, tudi Waymo izbral tezjo pot.

Zgodovina sprememb…

  • spremenil: kow ()

codeMonkey ::

Zakaj je voznik v Tesli? Grem stavit, da bos zgresil bistvo.

fikus_ ::

BigWhale je izjavil:

To je stvar, ki stane osem jurjev dodatnega denarja. Na koncu dneva je pa se vedno L2 sistem, ki rabi popoln nadzor in vprasanje koliko zmnajsa stres med voznjo. :D


Ali se splača ali ne, je stvar posameznika.
Jaz vidim veliko težavo v zbranosti voznika, ki mora nadzorovati vožnjo avta. Npr. da nek avto samodejno prevozi neko relacijo z 99% (zmišljena št.) neposredovanja "voznika". Problematičen je tisti 1%, ali bo tedaj "voznik" dovolj zbran, pri stvari, da bo pravočasno reagiral, da bo rešil situacijo.
Učite se iz preteklosti, živite v sedanjosti in razmišljajte o prihodnosti.

kow ::

codeMonkey je izjavil:

Zakaj je voznik v Tesli? Grem stavit, da bos zgresil bistvo.


Ce pustimo certificiranje, legalnost, redundanco ipd. Ker sistem ni dovolj dober oz. zanesljiv, da ne bi bil potreben.

Mislim, da danes ze lahko Musku priznamo vizionarnost, ko je sel v "vision only" sistem. Na dolgi rok je software > hardware.

Zgodovina sprememb…

  • spremenil: kow ()

codeMonkey ::

kow je izjavil:

codeMonkey je izjavil:

Zakaj je voznik v Tesli? Grem stavit, da bos zgresil bistvo.


Ce pustimo certificiranje, legalnost, redundanco ipd. Ker sistem ni dovolj dober oz. zanesljiv, da ne bi bil potreben.

Mislim, da danes ze lahko Musku priznamo vizionarnost, ko je sel v "vision only" sistem. Na dolgi rok je software > hardware.


Pa si falil. Waymov sistem je pametnejsi in to nima nicesar s kamero. Teslin sistem nima vgrajenega sistema, da bi se drzal situacij, ki jih zmore dovolj dobro odpeljati. Mu manjka. Tako je "neumen", da gre pac na blef in na nevaren nacin odpove, ko ne znese. Recimo, kot svez primer, direktno v vlak: https://jalopnik.com/watch-a-tesla-full...

Zato pac rabi voznika. Pa ceprav je zelo ocitno, da niti voznik ne bo zmogel resevati vseh teh softverskih zajebov. Eksperimentirati takole ni vizionarnost, ampak ogromno tveganje na racun drugih.

Zgodovina sprememb…

codeMonkey ::

Taka nesreca je torej posledica sistematicne napake. Kamera vs. kamera + lidar, pa resuje nakljucne napake (odpovedi), kjer te tudi voznik resuje, in ko ga enkrat odstranis iz zanke, ni se nihce pokazal, da se da le s kamero (ker to je stvar sistemskega inzeniringa, ne softverja).

Zgodovina sprememb…

kow ::

Nosecnica s popadki vzame Waymo do bolnisnice. Ker waymo naleti na situacijo, ki je ne obvlada, se ustavi. Nosecnica izgubi otroka. Je waymo se vedno "pameten"? Naj uganem, v drobnem tisku bo pisalo, da Waymo ni odgovoren.

Skratka, ne gre za pametno/neumno. Tale primer, ko je Tesla zajebala ni nic posebnega in se bo popravil v prihodnjosti s softwarsko nadgradnjo. Je pa drugace bolj primer kako nesposoben je lahko clovek. Tip je ocitno spal in v megli 100% zaupal sistemu, ki se v lepem vremenu ni dovolj zanesljiv. Potem pa se zapanicari in namesto, da bi normalno pohodil zavoro, zavije s ceste. Kar komedijant, tale voznik.

Zgodovina sprememb…

  • spremenil: kow ()

codeMonkey ::

kow je izjavil:

Nosecnica s popadki vzame Waymo do bolnisnice. Ker waymo naleti na situacijo, ki je ne obvlada, se ustavi. Nosecnica izgubi otroka. Je waymo se vedno "pameten"?


Torej je bolje, da se z nosecnico v avtu kar zaleti in po moznosti poskoduje se koga drugega zraven? Kaj si pa zdaj hotel povedat? A resilci gredo tudi povsod na polno?

Zgodovina sprememb…

kow ::

Resilci se pogosto tudi zaletijo, seveda. Prav gotovo ne bi bilo prav, da bi vedno vozili zelo varno, ker bi s tem ogrozili prevec zivljenj s pocasno voznjo. Ce software ubije kaksnega potnika, s tem ni nic narobe, ce v povprecju resi vec zivljenj.

Zgodovina sprememb…

  • spremenil: kow ()

codeMonkey ::

Brez takega sistema, s tako pomankljivostjo, bo ubil vec ljudi kot resil. To je jasno.

kow ::

Dokler bo voznik za volanom, tvoja trditev ne drzi. Ce bi bil striktno potnik, potem morda. Pa se to nisem preprican.

BigWhale ::

kow je izjavil:

Nosecnica s popadki vzame Waymo do bolnisnice. Ker waymo naleti na situacijo, ki je ne obvlada, se ustavi. Nosecnica izgubi otroka. Je waymo se vedno "pameten"? Naj uganem, v drobnem tisku bo pisalo, da Waymo ni odgovoren.


A bolj butastega primera si nisi mogel izmislit?

Waymo je, tam kjer operira, L4/L5 sistem. Teslin FSD je L2 se vedno. A bo kdaj L4/5 pa ne vemo. Morda bo, ampak do takrat pa tvoja hipoteticna nosecnica ne more s Teslo v porodnisnico.

Za nosecnico, ki mora v porodnisnico je dalec najbolje, da poklice resilca. Bodo porodili otroka tudi v prometnem kolapsu, ce bo treba. Waymo in Tesla tega ne bosta nikoli sposobna. :>

codeMonkey ::

kow je izjavil:

Dokler bo voznik za volanom, tvoja trditev ne drzi. Ce bi bil striktno potnik, potem morda. Pa se to nisem preprican.


Zakaj ze? Veliko bolj preprosti "anti-collision" oz. "collision avoidance" sistemi resijo mnogo situacij, brez potrebe, da te zapeljejo v vlak, resevalno vozilo, prikolico itd.

Zgodovina sprememb…

kow ::

BigWhale je izjavil:

kow je izjavil:

Nosecnica s popadki vzame Waymo do bolnisnice. Ker waymo naleti na situacijo, ki je ne obvlada, se ustavi. Nosecnica izgubi otroka. Je waymo se vedno "pameten"? Naj uganem, v drobnem tisku bo pisalo, da Waymo ni odgovoren.


A bolj butastega primera si nisi mogel izmislit?


Mora biti butast, da ga razumes tudi ti.

codeMonkey je izjavil:

kow je izjavil:

Dokler bo voznik za volanom, tvoja trditev ne drzi. Ce bi bil striktno potnik, potem morda. Pa se to nisem preprican.


Zakaj ze? Veliko bolj preprosti "anti-collision" oz. "collision avoidance" sistemi resijo mnogo situacij, brez potrebe, da te zapeljejo v vlak, resevalno vozilo, prikolico itd.


Nehaj ze padati na "selection bias". Statistika bo na koncu pokazala kako varen je sistem, ne pa "tvoji obcutki" kaksen sistem je primeren za kaksno situacijo. Je pa potrebno nekaj vedeti, ce je sistem 2x varnejsi kot povprecen voznik, ga jaz definitivno ne bom uporabljal. Mora biti bolj 10x, ker je distribucija sposobnosti voznje precej velika. Najbolj varni vozniki so verjetno cirka 10x bolj varni kot je povprecen voznik.

Zgodovina sprememb…

  • spremenil: kow ()

BigWhale ::

kow je izjavil:

BigWhale je izjavil:

kow je izjavil:

Nosecnica s popadki vzame Waymo do bolnisnice. Ker waymo naleti na situacijo, ki je ne obvlada, se ustavi. Nosecnica izgubi otroka. Je waymo se vedno "pameten"? Naj uganem, v drobnem tisku bo pisalo, da Waymo ni odgovoren.


A bolj butastega primera si nisi mogel izmislit?


Mora biti butast, da ga razumes tudi ti.


A te bo treba zbrcat iz teme zaradi zaljenja al bos dvignil nivo? Tole je zadnje opozorilo.

kow ::

Ti se ne vtikaj v debato, ce nimas kaj pametnega za povedati. Zacel si drkati brez osnove, pa sem ti vrnil. Zdaj si uzaljen.

codeMonkey ::

kow je izjavil:


Nehaj ze padati na "selection bias". Statistika bo na koncu pokazala kako varen je sistem, ne pa "tvoji obcutki" kaksen sistem je primeren za kaksno situacijo.


Ne padam. Omenil si statistiko. In smo tu ze nestetokrat predebatirali zakaj lahko statistika nekaj pokaze le ob omejenem sistemu. Tudi clanke sem limal v to temo.

Zgodovina sprememb…

codeMonkey ::

BigWhale je izjavil:

Bodo porodili otroka tudi v prometnem kolapsu, ce bo treba. Waymo in Tesla tega ne bosta nikoli sposobna. :>


Si preprican? Tesla ima lahko svojega robota v frunku. Waymo pa nima ne frunka in ne robota :))

(shit, i-pace ima frunk, ane)

Zgodovina sprememb…

BigWhale ::

kow je izjavil:

Ti se ne vtikaj v debato, ce nimas kaj pametnega za povedati. Zacel si drkati brez osnove, pa sem ti vrnil. Zdaj si uzaljen.


Brez osnove so izmisljeni in hipoteticni primeri. Primerjava L2 in L4 sistema je pa nesmiselna, ker gre za dva popolnoma razlicna sistema. Waymo je dostavil potnika od tocke A do tocke B sam, brez posredovanja, Tesla ga ni, ker ga ne more, in ga se nekaj casa ne bo.

codeMonkey je izjavil:


Si preprican? Tesla ima lahko svojega robota v frunku. Waymo pa nima ne frunka in ne robota :))

(shit, i-pace ima frunk, ane)


Dvomim, da se je kak porodnicar pripravljen oblect v spandex in se okrog vozit v frunku.

Zgodovina sprememb…

  • spremenil: BigWhale ()

kow ::

BigWhale je izjavil:


Brez osnove so izmisljeni in hipoteticni primeri. Primerjava L2 in L4 sistema je pa nesmiselna, ker gre za dva popolnoma razlicna sistema. Waymo je dostavil potnika od tocke A do tocke B sam, brez posredovanja, Tesla ga ni, ker ga ne more, in ga se nekaj casa ne bo.


Nisi razumel poante, nic hudega (da ne rabis biti pretirano pameten, da NE vozis). Kaksno je razmerje smiselnih/nesmiselnih ustavitev waymota, pa seveda ne vemo.

Pozabil si omeniti strosek voznje in cas voznje. Le zakaj? Ti bom pomagal - ker si zaslepljen hejter.

Zgodovina sprememb…

  • spremenil: kow ()

kow ::

Se sicer strinjam, da si FSD in Waymo trenutno ne konkurirata, ker pokrivata razlicne trge.

codeMonkey ::

kow je izjavil:

Pozabil si omeniti strosek voznje in cas voznje. Le zakaj? Ti bom pomagal - ker si zaslepljen hejter.


Hejter s teslo :)) Mogoce pa kot programer razume, da debatiranje o nefunkcionalnih zahtevah nima smisla, ce funkcionalne niso izpolnjene.

BigWhale ::

kow je izjavil:

BigWhale je izjavil:


Brez osnove so izmisljeni in hipoteticni primeri. Primerjava L2 in L4 sistema je pa nesmiselna, ker gre za dva popolnoma razlicna sistema. Waymo je dostavil potnika od tocke A do tocke B sam, brez posredovanja, Tesla ga ni, ker ga ne more, in ga se nekaj casa ne bo.


Nisi razumel poante, nic hudega (da ne rabis biti pretirano pameten, da NE vozis). Kaksno je razmerje smiselnih/nesmiselnih ustavitev waymota, pa seveda ne vemo.

Pozabil si omeniti strosek voznje in cas voznje. Le zakaj?


Ti enostavno noces razumeti, da primerjava ni imela smisla. Gre za dva popolnoma razlicna namena teh dveh sistemov. En je dejanski door to door avtonomni taksi, ki operira znotraj svoje domene, drugo je pa L2 sistem. Sicer precej napreden ampak se vedno L2 sistem.

Kaksna cena voznje? Nepomembna je v tem primeru. Taksi te tudi pripelje za precej vec denarja kot lasten avto ampak te pripelje tudi ce si mrtvo pijan. Cena tle ni faktor.

kow je izjavil:

Ti bom pomagal - ker si zaslepljen hejter.


Ja, tolk zaslepljen, da se ze pol leta vozim s Teslo. :D

a_borlak ::

Koliko drugih L2 ali L3 sistemov zna samostojno zavijati levo/desno v križiščih? Ker popravite me, vse drugo, kar sem do sedaj videl, da zna L2 samostojno je prehitevanje na AC, pa še tam moraš dati smerokaz, da sploh začne ta manever.

kow ::

BigWhale je izjavil:


Ti enostavno noces razumeti, da primerjava ni imela smisla. Gre za dva popolnoma razlicna namena teh dveh sistemov. En je dejanski door to door avtonomni taksi, ki operira znotraj svoje domene, drugo je pa L2 sistem. Sicer precej napreden ampak se vedno L2 sistem.

Kaksna cena voznje? Nepomembna je v tem primeru. Taksi te tudi pripelje za precej vec denarja kot lasten avto ampak te pripelje tudi ce si mrtvo pijan. Cena tle ni faktor.


Saj sem napisal zgoraj, da primerjava trenutno ni smiselna. Kar ti ne razumes, da je na daljsi rok vseeno kaj je L2, L4 bla, blah, blah. Ce Teslin L2 postane dovolj zanesljiv, se bo uporabljal kot avtonomno vozilo. Pa magari spremenijo zakonodajo. Na koncu odloca tehnologija, ne birokrati z risanjem grafov.

Cena je pa vedno pomemben faktor. Waymo zaenkrat ni zmozen tekmovati z navadnimi taxiji. Glede na njihov pocasen napredek, bo trajalo vsaj se nekaj let.

Mimogrede, da je Waymo dostavil potnike brez posredovanja z gotovostjo ne mores trditi. Ker ne vemo, ali je remote operater posredoval. Zelo verjetno ni, ne moremo pa vedeti 100%.

Zgodovina sprememb…

  • spremenil: kow ()

codeMonkey ::

a_borlak je izjavil:

Koliko drugih L2 ali L3 sistemov zna samostojno zavijati levo/desno v križiščih? Ker popravite me, vse drugo, kar sem do sedaj videl, da zna L2 samostojno je prehitevanje na AC, pa še tam moraš dati smerokaz, da sploh začne ta manever.


L2 sistemi v osnovi niso namenjeni za te stvari. Prakticno nihce se tega niti ni lotil.

kow je izjavil:

Mimogrede, da je Waymo dostavil potnike brez posredovanja z gotovostjo ne mores trditi. Ker ne vemo, ali je remote operater posredoval. Zelo verjetno ni, ne moremo pa vedeti 100%.


Vemo pa da v tem testu niso izbrali namenoma poti, kjer FSD ni 10x odpovedal?

kow je izjavil:

Ce Teslin L2 postane dovolj zanesljiv, se bo uporabljal kot avtonomno vozilo. Pa magari spremenijo zakonodajo. Na koncu odloca tehnologija, ne birokrati z risanjem grafov.


Ne se ne bo kar tako. Ker ti ne razumes da fail-safe sistem ne more postati fail-operational kar tako. In birokrati nimajo nicesar s tem. Je osnovna zahteva.

Zgodovina sprememb…

J.McLane ::

codeMonkey je izjavil:

kow je izjavil:

codeMonkey je izjavil:

Zakaj je voznik v Tesli? Grem stavit, da bos zgresil bistvo.


Ce pustimo certificiranje, legalnost, redundanco ipd. Ker sistem ni dovolj dober oz. zanesljiv, da ne bi bil potreben.

Mislim, da danes ze lahko Musku priznamo vizionarnost, ko je sel v "vision only" sistem. Na dolgi rok je software > hardware.


Pa si falil. Waymov sistem je pametnejsi in to nima nicesar s kamero. Teslin sistem nima vgrajenega sistema, da bi se drzal situacij, ki jih zmore dovolj dobro odpeljati. Mu manjka. Tako je "neumen", da gre pac na blef in na nevaren nacin odpove, ko ne znese. Recimo, kot svez primer, direktno v vlak: https://jalopnik.com/watch-a-tesla-full...

Zato pac rabi voznika. Pa ceprav je zelo ocitno, da niti voznik ne bo zmogel resevati vseh teh softverskih zajebov. Eksperimentirati takole ni vizionarnost, ampak ogromno tveganje na racun drugih.


No, tale zajeb bi voznik z lahkoto rešil, če bi spremljal vožnjo, ker je bilo več kot očitno, da avto leti proti zapornicam s preveliko hitrostjo. FSD pa kolikor mi je znano mora voznik spremljati vedno 100%

Bolj so problematični primeri, kjer bi avto nenadoma zavil v nasproti vozeče vozilo, tu ti tudi dirkaški refleksi nebi pomagali.
Simplicity is the ultimate sophistication - Leonardo da Vinci

kow ::

codeMonkey je izjavil:


Vemo pa da v tem testu niso izbrali namenoma poti, kjer FSD ni 10x odpovedal?


Ne vemo. Jasno, da to ni nek "znanstven" test.

codeMonkey je izjavil:


Ne se ne bo kar tako. Ker ti ne razumes da fail-safe sistem ne more postati fail-operational kar tako. In birokrati nimajo nicesar s tem. Je osnovna zahteva.


Ne rabi biti fail-safe in fail-operational To je velika traparija. Saj ne gre za jedrski reaktor.

Zgodovina sprememb…

  • spremenil: kow ()

kow ::

Posnetka od Waymo seveda ne bomo dobili.

codeMonkey ::

J.McLane je izjavil:

No, tale zajeb bi voznik z lahkoto rešil, če bi spremljal vožnjo, ker je bilo več kot očitno, da avto leti proti zapornicam s preveliko hitrostjo. FSD pa kolikor mi je znano mora voznik spremljati vedno 100%

Bolj so problematični primeri, kjer bi avto nenadoma zavil v nasproti vozeče vozilo, tu ti tudi dirkaški refleksi nebi pomagali.


Niso. Vsi ti problemi so problematicni. Spremljati voznjo, ko nekaj vozi precej dobro, in redko odpove, je tezko. Zato tudi nikoli ni bilo misljeno, da bi bili L2 sistemi tako zmogljivi. In ko recem redko, je to v smislu enega voznika, kako to dozivlja. Ko pa imas nekaj sto tisoc takih sistemov na cesti in vsak od njih "redko" odpove, je jasno tveganje v sirsem smislu za nesreco vecje. Ni ravno tezko razumeti teh konceptov.

kow je izjavil:

Ne rabi biti fail-safe in fail-operational To je velika traparija. Saj ne gre za jedrski reaktor.


Dejansko rabi. Druzba od proizvajalcev to zahteva. Ze en x-by-wire je fail operational, kot eden prvih takih sistemov v avtomobilih (prej je bilo vse se fail-safe), kaj sele tak sistem.

Zgodovina sprememb…

kow ::

codeMonkey je izjavil:


Dejansko rabi. Druzba od proizvajalcev to zahteva.


Ce bo tehnologija dovolj dobra, si bo druzba hitro premislila.

codeMonkey ::

kow je izjavil:

codeMonkey je izjavil:


Dejansko rabi. Druzba od proizvajalcev to zahteva.


Ce bo tehnologija dovolj dobra, si bo druzba hitro premislila.


Se strinjam. Dobra pa bo, ce bo moje drzalo, drugace ne more biti dobra.

kow ::

Tukaj se ne strinjava. Fair enough.

codeMonkey ::

To je jasno. BTW, se vedno mislim, da imajo pri Tesli dobro osnovo. Samo se malo pristop postimajo in mu namenijo nekaj casa ter sredstev, pa zna biti top.

kow ::

Sam sem mnenja, da mora biti FSD varnejsi nekje 2-5x od povprecnega voznika, da lahko zacnejo z robotaksiranjem na omejenih obmocjih, pa se to ne v vseh razmerah. Da deployajo robotaksi globalno (v ZDA), pa mora biti varnejsi vec kot 10x od povprecnega voznika. Pa dodati bodo morali ogromno softwarea, ker bodo seveda naleteli na veliko prakticnih tezav, ko nimas cloveka za volanom. Mislim, da bo v cirka 2 letih, FSD ze zelo varen, ampak robotaksi je veliko tezji problem.

Zgodovina sprememb…

  • spremenil: kow ()

codeMonkey ::

Te stevlike so mi vedno hecne. FSD mora biti varnejsi od skupine ljudi, ne od povprecnega voznika. Tesla mora pokazati druzbi, da je flota njihovih vozil varnejsa od primerljive skupine ljudi.

kow ::

"povprecni voznik" je samo statisticna metrika. Zaradi mene lahko tudi reces "povprecni taksist". Samo potem se razmerja spremenijo. Ce je varen enako kot povprecni taksist, bi to mocno zmanjsalo stevilo nesrec na cestah.

Zgodovina sprememb…

  • spremenil: kow ()

Okapi ::

a_borlak je izjavil:

Koliko drugih L2 ali L3 sistemov zna samostojno zavijati levo/desno v križiščih? Ker popravite me, vse drugo, kar sem do sedaj videl, da zna L2 samostojno je prehitevanje na AC, pa še tam moraš dati smerokaz, da sploh začne ta manever.

Stvar je v tem, da L2 takih stvari sploh ne sme početi. Saj to je glavna stvar, ki jo mnogi očitajo Tesli. Ne da slabo dela, ampak da dela stvari, ki jih ne bi smela, ker še niso dovolj varne in zanesljive.

Ni dovolj, da avto sam tisočkrat varno zavije v križišču ali sam prehiteva, to mora storiti milijonkrat zapored. Oziroma še veliko več. Na cesti je trenutno vsaj 2 milijona tesel. Če bi vse same vozile, in bi naredile napako pri zavijanju ali prehitevanju enkrat na milijon, bi imel vsak dan sto nesreč (če rečemo, da vsak avto na dan naredi 50 zavijanj, prehitevanj in podobnih manevrov, pri katerih lahko avtomatika naredi napako).

Zato takšne primerjave, ko tesla samostojno uspešno odpelje neko (relativno kratko) pot, o kakovosti avtomatike povedo veliko manj kot tistih nekaj primerov, ko je avtomatila povzročila nesrečo.

Mimogrede, zakaj Musk še ni poslal tesle na samostojno pot od obale do obale? Že leta 2016 se je hvalil, da bo to mogoče čez okoli 2 leti. Čez 2 leti (2018) je Musk izjavil, da bi sicer že lahko poslali avto iz Los Angelesa v New York, ampak bi morali posebej sprogramirati celo pot (se pravi bi dosegli pogoje za L4 na tej relaciji), to pa naj ne bi bilo smotrno, ker bi bilo to uporabno samo za to eno točno določeno pot. In da bodo raje počakali, da bo avtopilot tako dober, da mu ne bo treba posebej sprogramirati posamezne poti, ampak bo znal vozit kjerkoli (L5).

No, na to pa če čakamo, in ni videti, da bi se kaj kmalu zgodilo. Pa celo, če bi se morda kdo opogumil in šel z avtopilotom od obale do obale, in bi uspešno prišel, to ne bi v bistvu nič kaj dosti pomenilo, ker kot rečeno - en uspešen poskus ne pomeni skoraj nič (v smislu dokazovanja varnosti takšnega početja).

kow ::

Okapi je izjavil:


Ni dovolj, da avto sam tisočkrat varno zavije v križišču ali sam prehiteva, to mora storiti milijonkrat zapored. Oziroma še veliko več. Na cesti je trenutno vsaj 2 milijona tesel. Če bi vse same vozile, in bi naredile napako pri zavijanju ali prehitevanju enkrat na milijon, bi imel vsak dan sto nesreč (če rečemo, da vsak avto na dan naredi 50 zavijanj, prehitevanj in podobnih manevrov, pri katerih lahko avtomatika naredi napako).


Koliko avtomobilov imamo v Sloveniji in koliko nesrec je vsak dan?

Okapi ::

codeMonkey je izjavil:

Niso. Vsi ti problemi so problematicni. Spremljati voznjo, ko nekaj vozi precej dobro, in redko odpove, je tezko. Zato tudi nikoli ni bilo misljeno, da bi bili L2 sistemi tako zmogljivi.

Verjetno so vsaj nekateri od teh sistemov v bistvu enako, ali vsaj zelo podobno zmogljivi kot pri teslah, ampak so določene stvari, ki jih računalnik načeloma zna izvajati samostojno, načrtno onemogočene, ker pač še niso dovolj varne.

Gregor P ::

Seveda mora biti za nekaj magnitud bolj varen od ljudi (2x, 3x, 5x bolje, vse to je premalo). Ker mi počnemo večinoma nesreče zaradi naših lastnih napak - in s tem seveda lahko naleti potem kdo drug nehote na nas (torej ni kriv, a je postal udeleženec te nesreče) -, manj je pa nesreč zaradi res skoraj nemogoče vnaprej predvidenih vzrokov na cestah (karikiram, se ravno poruši most, ko si na njem). Avtonomno vozilo pač naj teh napak sploh ne bi smel početi; nikakor ne sme npr. prevoziti rdeče luči, ne sme zaviti nikamor, če nima prednosti, ne sme imeti prekratke varnostne razdalje, ne sme prevoziti dvojnih črt, ne sme voziti po nasprotnem pasu (če to ni posebej označeno), ne sme zapeljati napačno v enosmerno ulico, ne sme voziti prek omejitev, se razume (in to je že velik plus), da ni alkoholiziran, ne more biti utrujen, nezbran, objesten ipd. (če pa sistem zazna tehnične oz. programske napake, pa mora imeti strogo določene protokole za te primere) itd. Na kratko do nesreč bi lahko praktično le še prišlo zaradi napak ostalih voznikov (ljudi) na cestah, pa še te bi lahko avtonomno vozilo zreduciralo le na manjše število zaradi vseh varnostnih oz. preventivnih sistemov. In dokler pač tega ne zna, do takrat moramo še vedno imeti nadzor nad njimi ljudje.
The main failure in computers is usually located between keyboard and chair.
You read what you believe and you believe what you read ...
Nisam čit'o, ali osudjujem (nisem bral, a obsojam).

Zgodovina sprememb…

  • spremenil: Gregor P ()

Okapi ::

kow je izjavil:

Koliko avtomobilov imamo v Sloveniji in koliko nesrec je vsak dan?

Približno 1,5 milijona registriranih avtov in približno 50 prometnih nesreč vsak dan (takih, ki jih policija registrira - 18.700 leta 2022).

Recimo, da je vsak dan na cesti milijon avtov (da bo lažje računati), in če vsak naredi 50 manevrov (tole je zelo od oka ocena), pri katerem lahko pride do nesreče, smo pri eni napaki na milijon manevrov.

Se pravi, v povprečju bi smela avtomatika narediti eno napako na milijon manevrov, da bi lahko rekli, da vozi enako dobro kot ljudje. Ampak je veliko vprašanje, če bi se pri robotu zadovoljili z enako zanesljivostjo. Sem precej prepričan, da bi od robota zahtevali za velikostni razred (10x) večjo varnost, da bi mu zakonodajalec dovolil, da brez nadzora in posebnih omejitev prevaža ljudi.

Če pri tem zanemarimo kazensko odgovornost. Pri ljudeh smo glede varnosti bolj popustljivi, ker je načeloma človek kazensko odgovoren za svoje napake (in to razumemo kot varovalko pred povzročanjem nesreč). Če pijan nekoga povoziš, greš lahko v zapor. Kdo bo šel v zapor, če robot do smrti povozi človeka?

codeMonkey ::

Si kar blizu. Za avtomobile in najbolj kriticne sisteme imamo metriko za nakljucne kriticne odpovedi ("failure rate") in znasa 10^-8 odpovedi na uro obratovanja. Izhaja pa iz tocno takega razmisljanja. Stekas te stvari, vidim :))

Zgodovina sprememb…

a_borlak ::

Se že kažejo obrisi Cybercaba, bomo videli, kaj bo iz tega ...

codeMonkey ::

FSD ne rabi nicesar (razen ko ima slab dan) :D

https://www.reddit.com/r/JamiePullDatUp...

Zgodovina sprememb…

kow ::

Slabo se vidi (kaj tocno je sprozilo taksen odziv vozila, mogoce vozilo za njim, na desnem pasu?) To je drugace FSD, ne Autopilot (kot pise v naslovu). To je tisti Marsovec, ce se ne motim? Pol je verjetno zadnja verzija?

Zgodovina sprememb…

  • spremenil: kow ()

codeMonkey ::

Zakaj mislis da bi moralo biti vidno kaj sprozi tak odziv? Oz. da mora biti razlog v okolici..

Zgodovina sprememb…

««
27 / 28
»»


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

NHTSA: Teslin Autopilot smrtno nevaren (strani: 1 2 3 )

Oddelek: Novice / Znanost in tehnologija
1186913 (2199) c3p0
»

Mercedes-Benz v Evropi prehitel Teslo (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
8414439 (9370) DamijanD
»

Za predlansko nesrečo tesle odgovorna Tesla in voznik (strani: 1 2 )

Oddelek: Novice / Znanost in tehnologija
5213176 (8027) Meizu
»

Prva smrtna žrtev v nesreči samovozečega avtomobila (strani: 1 2 3 48 9 10 11 )

Oddelek: Novice / Znanost in tehnologija
529183084 (166579) AndrejO
»

Uber zaradi nesreče prekinil preizkuse avtonomnih vozil (strani: 1 2 3 4 5 )

Oddelek: Novice / Znanost in tehnologija
21259485 (54194) Unknown_001

Več podobnih tem