Prikaz samo enega sporočila - znotraj teme...

tstih sporočil: 5.199
[bc123a]
> [tstih]
> Kdaj ste pa zadnjič pognali konvolucijsko nevronsko mrežo na npr. DGX-1? V nekaj letih bo klasifikacija na ravni človeka; segmentacija še kakšno leto pozneje.
To se seveda ne bo zgodilo, ker "na ravni cloveka" je zelo kompleksna zadeva. Pri tem ne kompleksnost nevronske mreze ne hardver ne igra odlocilne vloge, vec v nadaljevanju.
"Na ravni cloveka" ima nek kontekst. Npr. lahko receva, da nev. mreza igra sah nad ravnijo cloveka (in nad ravnijo algoritmov). Lahko receva, da hitrost predprocesiranja barvanja crnobelih filmov presega cloveka, kvaliteta pa (se) ne. Lahko receva, da GAN presega cloveka pri generiranju obrazov ljudi, ki ne obstajajo. Lahko receva, da nev. mreza presega cloveka pri prepoznavanju enojajcnih dvojckov.

In hardver seveda pri tem igra eno izmed odlocilnih vlog. Deep learning je na nevr. mrezah temeljeca stara tehnologija, ki se je vrnila v ospredje ravno zaradi napredka v nacinih ucenja, v hardveru, v ucnih primerih in v zadnjih dveh letih, GAN mrezah. Prvo je omogocilo presenetljivo boljse rezultate (npr. conv. network za vid in recurrent network za govor); drugo je omogocilo, da se spodobno kompleksne mreze lahko cesa naucijo v casu nasega zivljenja, tretje (internet, npr. ImageNet), da se imajo iz cesa uciti in cetrto, da se medsebojno izboljsujejo.

Zato bi razumel, da bi nekdo, ki je zadnjic delal z nevronskimi mrezami pred nekaj leti in potem prespal napredek zadnjih 3-5 let verjel, da so zanimiv teoreticen koncept, da pa so v praksi neizvedljive.
Da ne bova prevec fragmentirala debate, bom tule napisal par stvari, ki se mi zdijo bistvene.
1) Zakaj taksno fanaticno zaupanje v etiko ljudi, ki so s svojimi izjavami uspeli pumpati AI hype in na racun tega dobili dobre sluzbe? Slovenci z veliko skepso gledajo na domace akademike (vec kot upraviceno!), ampak a tuji akademiki so pa ovcke brez konflikta interesov?
Ker so rezultati konkretno teh tehnologij (deep learning) presenetljivo dobri. Prepoznavanje govora je dejansko ze cisto uporabno, nespecializiranih prevajalcev cez nekaj let ne bo vec, style transfer je zanimiva igracka, ki bi bila lahko uporabna, OCR je dozorel, error rate na ILSVRC pade cisto vsako leto, itn.
2) Verjemite da zelo dobro vem o cemer je govoril Karpathy in njegove izjave v tistem casu so bile neeticne (2015), ker niso bile podprte z rezultati. Je pa fajn uspel napumpati famo, saj so ga citirali vsi od CNN naprej.
Karpathy in Stanford sta odigrala precej kljucno, ce ze ne vodilne vloge pri solanju mladih matematikov in vzponu discipline ter njenem prodoru v gospodarstvo. Vodja razvoja avtonomnih vozil pri Tesli je poslal pred dvema tednoma, dotlej je bil odlicen predavatelj in raziskovalec na Stanfordu.
3) Zelo dobro poznam metode evaluacije, po katerih je znanstvena komuna prisla do tistih fascinantnih rezultatov, s katerimi vsi mahajo okrog. Po eni strani sem super vesel, da so gospodje akademiki (Karpathy pri Tesli, Urtasun pri Uberju, pri cemer nimam nic za reci cez Raqel Urtasun za razliko od Karpathya) dobili moznost, da pokazejo, da so eksperimenti res odrazali realisticne probeleme (hint: niso). Vecina stevilk se vedno izhaja iz ILSVRC tekmovanja, zal stran ne dela, da bi vam dal povezavo na evaluacijsko metodologijo. Ce jo poznate, lahko debatirava naprej o tem, kako realisticna je "top 5" evaluacija za prakticne primere (namig: nastala je zato, ker je ze zbirka podatkov slaba in nepopolno anotirana).
Ne morejo vsi lagati in biti neposteni (glej NASnet spodaj), stevilke so potrjene on N virov in v kontekstu tistega, kar se meri dobre.

research.googleblog....image.html

ImageNet ni popoln, je pa najvecja odprta raziskovalna baza te sorte, ki jo clovestvo premore.

In predvsem avtonomno vozilo ni le racunalniski vid. Ze z relativno preprostimi prijemi (npr. Bayes) se da zaznavanje izpopolnjevati na podlagi zanesljivosti vecih virov, ki so ti na voljo.
4) Tudi ce bi nevronske mreze imele 100% performanse v razpoznavanju in segmentaciji, je problem avtonomne vozje vecji, in najvecja nevarnost za to, da se vse sesuje v prah je ravno ignoriranje psiholoskih principov, ki vodijo clovesko razumevanje okolice.
Saj razpoznavanje in segmentacija tudi nista celotno podrocje avtonomne voznje, ampak le del.
Tisto cesar veliko akademikov, ki se pehajo za cim vecjimi procenti razpoznavanja ne razume, je, da pri avtonomni voznji gre za prehod med paradigmami: iz razumevanja, ki ga odlicno obvlada clovek, v hiper-senzoriko, ki je sedaj pac edina stvar, ki jo znamo namestiti na avtonomne avte. Clovek je precej fenomenalen stroj za voznjo: ce je trezen, naspan in psihicno pri sebi, rabi tocno dve "kameri" z medocesno razdaljo 10 centimetrov, pan-tilt mehanizem za obracanje glave in dve ogledali in lahko prevozi na 10tisoce kilometrov brez nesrece po lastni krivdi. Zakaj? Ker premore razumevanje okolice okrog sebe.
...in vsaj 18 let ucenja na neprimerno vecji nevronski mrezi. Ampak to ni tezava, ker nekatere stvari, ki jih clovek pocne niso tako kompleksne, da bi bila polna izraba kapacitet potrebna.
Ni lidarja in nevronske mreze, ki bi na 30 metrov uspela oceniti, ali je gruca otrok ki se igra z zogo pod nadzorom njihove mame v blizini, ali pa mama morda izgleda raztresena, in bo eden od otrok skocil na cesto.
V bistvu je. Opisano je dober problem za recurrent network, ki dobi prepoznane inpute in se mora odlociti, kaj se lahko zgodi.
Razumevanje, clovesko razumevanje okolice je bistven predpogoj za defenzivno voznjo, torej za predvidevanje, kateri od udelezencev v prometu bo naredil napako. Vprasam vas, zakaj ne damo 10 letnikom vozniskega izpita pod enakimi pogoji, kot ga damo 16 ali 18letnikom? Vidijo enako dobro, slisijo bolje, zakaj torej ne? Zgoraj imate odgovor. Razumevanje, ki je pri 10 letniku pac precej bolj primitivno kot pri 18 letniku.
Ta predpogoj se avtonomna vozila tudi trudijo izpolnjevati. Sicer sploh ne bi vozila.
Se enkrat, uspesnost prehoda iz dobrega razumevanja v hiper-senzoriko sploh ni done deal, in cela industrija avtonomnih avtov kar predpostavlja da je.
Ker ima dobre rezultate. Kaj pa naj drugega predpostavi? Da jih bo politika ustavila, kljub boljsim rezultatom od cloveskih voznikov, ker strah?
> Po moje bo za mnoge zelo velik problem ta prihajajoči preskok med algoritemskimi in naučenimi stroji. Za algoritemske bo morda še lahko kdo odgovoren. Za naučene pa ravno toliko, kot je odgovoren nekdo, ki da mulcu pri 18tih letih, s 30 urami vožnje izpit. Ta prenos kontrole na stroje bo strašen. To, da je treba stroju zaupati na podlagi tega, koliko se je učil; brez da bi razumeli zakaj deluje bo zelo težko. Ne glede na to, da bodo bistveno boljši vozniki od ljudi. Kljub milijnom prevoženih kilometrov Za vsako resno nesrečno avtonomnega vozila v zadnjih letih vemo vsi.
No, tu se lahko strinjava, jaz pravim, da glede na zgoraj opisano ni samoumevno da bo ta preskok uspel in da ga bodo ljudje sprejeli. Sploh ker industrija avtonomnih vozil ocitno ignorira vecino izkusenj, ki jih je recimo letalska industrija pridobivala 60 let - ne vem od kje, taksno zaupanje, da bo v nekaj letih uspelo avtomobilistom resiti vse te probleme, sploh ker ignorirajo znanje pridobljeno v sorodnih podrocjih.
Letalska industrija je imela do pred nekaj leti na voljo isto znanost, kot vse druge in ta znanost preprosto ni omogocala prijemov, ki se jih uporablja danes. Letala, ki jih razvijajo danes, *bodo* avtonomno pristajala.
Eno od spoznanj je to, da je v avtomatskem sistemu clovek najsibkejsi faktor, s cimer se letalska industrija ukvarja ze desetletja ("human factors"), recimo od prvega glass cockpita naprej, pa se vedno ni uspela resiti problemov (prevec pogosto se dogaja, da letalo leti na avtopilotu, oba pilota pa zadremata). To so zelo slabi obeti za Level 3 in Level 4 avtomobile.
Skoda, ker se ne da patentirati ideje, da se voznike pripne na senzorje in jih avto/letalo nadzira. To pa res ni tezko. Zaznalo bo pijane, neprespane, custveno razrvane in zaljubljene...skratka, vse nevarne.
Zelo hitro lahko pricakujemo vsaj v ZDA zahtevo po standardnih "crnih skrinjicah" v avtih z level 3 avtonomijo ali vec, NTSB v ZDA ne bo dolgo gledal tega, da so pri preiskavah odvisni od preiskovancev (ki, kot Tesla v nasprotju z zakonom in uveljavljenimi standardi preiskovanja letalskih nesrec, dajejo kar svoje zakljucke v javnost).
Saj jo ze vsi imajo...

Neposredni odgovori na sporočilo št. 2705777

Strani: 1

najobj sporočil: 31.920
Zadnja sprememba: najobj 04.04.2018 13:21
[tstih]
> [bc123a]
> > [tstih]
> > Kdaj ste pa zadnjič pognali konvolucijsko nevronsko mrežo na npr. DGX-1? V nekaj letih bo klasifikacija na ravni človeka; segmentacija še kakšno leto pozneje.
> To se seveda ne bo zgodilo, ker "na ravni cloveka" je zelo kompleksna zadeva. Pri tem ne kompleksnost nevronske mreze ne hardver ne igra odlocilne vloge, vec v nadaljevanju.
"Na ravni cloveka" ima nek kontekst. Npr. lahko receva, da nev. mreza igra sah nad ravnijo cloveka (in nad ravnijo algoritmov). Lahko receva, da hitrost predprocesiranja barvanja crnobelih filmov presega cloveka, kvaliteta pa (se) ne. Lahko receva, da GAN presega cloveka pri generiranju obrazov ljudi, ki ne obstajajo. Lahko receva, da nev. mreza presega cloveka pri prepoznavanju enojajcnih dvojckov.
... čuj, pametni računalnik lahko premaga človeka v šahu, ker so pravila igre natančno predpisana in je zato igra predvidljiva ... no, zdaj pa ti meni povej, če bi pametni računalnik lahko premagal človeka v šahu, če bi si človek lahko sproti izmišljal, kako bo premikal svoje figure, kot se to dogaja med udeleženci v prometu ... aja, in zakaj bi si jaz kupil pametni avto, če pa ne zna vozit sam, ker ga moram stalno nadzorovat in ga nadomestit, ko gre kaj narobe oziroma ko gre drugače, kot je na osnovi predvidevanj programerjev pametni avto sprogramiran ? ...
bc123a sporočil: 48.253
Zadnja sprememba: bc123a 04.04.2018 22:01
[tstih]
In hardver seveda pri tem igra eno izmed odlocilnih vlog. Deep learning je na nevr. mrezah temeljeca stara tehnologija, ki se je vrnila v ospredje ravno zaradi napredka v nacinih ucenja, v hardveru, v ucnih primerih in v zadnjih dveh letih, GAN mrezah. Prvo je omogocilo presenetljivo boljse rezultate (npr. conv. network za vid in recurrent network za govor); drugo je omogocilo, da se spodobno kompleksne mreze lahko cesa naucijo v casu nasega zivljenja, tretje (internet, npr. ImageNet), da se imajo iz cesa uciti in cetrto, da se medsebojno izboljsujejo.

Zato bi razumel, da bi nekdo, ki je zadnjic delal z nevronskimi mrezami pred nekaj leti in potem prespal napredek zadnjih 3-5 let verjel, da so zanimiv teoreticen koncept, da pa so v praksi neizvedljive.
Jaz seveda nikakor ne mislim, da so v praksi neizvedljive. Pravim pa da je to samo delnega pomena za avtonomno voznjo. Tudi ce bi imel 100% delujoco mrezo, s tem ne resis problema avtonomne voznje. Dobis dobro senzoriko.
Ker so rezultati konkretno teh tehnologij (deep learning) presenetljivo dobri. Prepoznavanje govora je dejansko ze cisto uporabno, nespecializiranih prevajalcev cez nekaj let ne bo vec, style transfer je zanimiva igracka, ki bi bila lahko uporabna, OCR je dozorel, error rate na ILSVRC pade cisto vsako leto, itn.
Disclosure: uporabljam (profesionalno) tako strojno prevajanje kot razpoznavanje govora. Dejansko je tako prepoznavanje govora kot strojno prevajanje dobro samo povrsinsko. Prevajanje je dovolj dobro, da meni, ekspertu, uspe v 2 urah prevesti 15 strani strokovnega besedila, za kar bi sicer rabil 2 dni (ja, imam izkusnje) in prevajalci, ki so slabsi od tega bodo gotovo ob sluzbo - to so ze sedaj bili razni studentki ki so nekdaj prevajali zakotne piratske filme, sedaj pa razne katastrofalne prirocnike za uporabo. Ampak prevod, ki ga dobim iz google translate je treba popraviti, ker so napake zelo jasne in smesne (en cas sem recimo dobival spam maile o "zebeljnih glivah" (toe nail fungus), no smesni so v tem smislu, samo ne tako zelo ocitni. Enako je za diktiranje (razpoznavanje govora). Zadeva je na nivoju studenta za 3 EUR na uro, ki ima mozgane na pasi, medtem ko mu bi jaz narekoval. Zakaj? Zaradi tega, kar sem pisal prej. Tu ne gre za razumevanje, ampak prakticno za oponasanje, za zelo plitev nivo "inteligence". Te napake niso enostavno popravljive (in tega se vecina uporabnikov ne zaveda, ocitno tudi moji kolegi inzenirji ne :)

In prosim, da mi ne polagas besed v usta, da so nevronske mreze nedelujoce in brezveze, jaz pravim da ne resujejo problema umetne inteligence in s tem povezanih problemov avtonomne voznje (o tem pozneje) na nacin, kot ti pravis.
Karpathy in Stanford sta odigrala precej kljucno, ce ze ne vodilne vloge pri solanju mladih matematikov in vzponu discipline ter njenem prodoru v gospodarstvo. Vodja razvoja avtonomnih vozil pri Tesli je poslal pred dvema tednoma, dotlej je bil odlicen predavatelj in raziskovalec na Stanfordu.
To ne pomeni da je bil strasno eticen in fer ko je govoril o rezultatih. Moje mnenje je, da je bilo njegovo tolmacenje rezultatov neeticno. Poleg tega sem sokiran, ko slisim kako blazno fino je, da firme pobirajo akademski kader. Tudi v ZDA je velikanska razlika med akademskim svetom in prakticnimi aplikacijami, kar po moje najbolj krvavo obcutijo raziskovalci v Uberju (tisti, ki se niso sli stran, ker so imeli poln kurac Lewandovskega), ker je dejansko tam po moje (money burn) najvecji pritisk, da v prakso spravijo akademske rezultate, in to se zdalec ni tako enostavno.
Ne morejo vsi lagati in biti neposteni (glej NASnet spodaj), stevilke so potrjene on N virov in v kontekstu tistega, kar se meri dobre.

research.googleblog....image.html

ImageNet ni popoln, je pa najvecja odprta raziskovalna baza te sorte, ki jo clovestvo premore.
Seveda je ImageNet najvecji, ni pa nujno da je to dobro. Jaz se se zelo dobro spomnim nekdaj najvecje baze, Caltech 101, ki jo je naredila Fei-Fei. Nekaj let se je uporabljala, potem pa so raziskovalci ugotovili, da je za qrac (podobne probleme je imela kot ImageNet). Potem so sli raziskovalci na bistveno manjso bazo, PASCAL VOC, s samo 20 kategorijami, na katerih so se zgodili najvecji preboji detekcije objektov, do trenutka ko je prisel ven ImageNet (delo na PASCAL VOC se je med drugim ustavilo tudi zato, ker je eden glavnih avtorjev naredil samomor, btw...). Skratka,

1) to da je ImageNet najvecji ni nujno dobro, ce ne odraza realnih problemov
2) to da ima metoda dobre rezultate na imagenetu, se ne pomeni da je inteligentna.
In predvsem avtonomno vozilo ni le racunalniski vid. Ze z relativno preprostimi prijemi (npr. Bayes) se da zaznavanje izpopolnjevati na podlagi zanesljivosti vecih virov, ki so ti na voljo.
Seveda se da. Problem je, da vsi govorijo o tem, kako so vozniki slabi. Vozniki so slabi, ko so nepozorni, zaspani, pijani, ali pa preprosto ne znajo voziti. Naspan, pozoren in dober voznik (brez mobitela v rokah!) s kilometrino bo imel v Arizoni otrocje lahko delo, tako da imajo avtonomna vozila zelo zelo zelo visok prag za preseci. Vse te stvari so seveda bistveno slabse, ce so razmere na cesti slabse, ampak takrat imajo tudi senzorji samovozov bistveno vecje probleme, prakticno niti problemov dobro ne poznamo, ker se tam odvija zelo malo testiranja.

Skratka, 1) ni fer primerjati voznje v vseh razmerah in precej idealiziranih razmer v katerih vozijo avtonomni avti in 2) statistika tudi avtonomnih avtov je prakticno neobstojeca. Pomislite, pred nesreco v Tempe je bil uber z 0 fatalities neskoncno boljsi od cloveskih voznikov, po eni smrtni zrtvi je pa 25x slabsi. A je res treba navijati te statisike, ki vam lahko cez pol leta (ko recimo waymo povozi prvega pesca) udarijo v glavo in mediji (ki so sedaj nenormalno naklonjeni idealu avtonomne voznje) zacnejo pisati o "smrti na stirih kolesih"?

Torej, da se vrnemo k Bayesu, problem je, da imamo verjetnost nesrece v danem trenutku 0.999999999999 (evo stevilo decimalk sem si izmislil, da se preracunati, ce vzamemo da je je trenutek recimo 1 sekunda), in ce avtonomni avti pridejo na 0.9999999999 bodo 100x slabsi.

Skratka, statistika je neobstojeca ali pa zelo "prazna", zato se lahko cifre obracajo cez noc, prostor moznih optimumov pa ogromen. Zato se tudi jaz strinjam, da so voznje v realnih pogojih nujno potrebne da pridemo vsaj blizu level 5 avtonomiji, le da mislim, da bomo za to rabili se 10 let zbiranja podatkov, da bomo sploh lahko rekli kaj statisticno signifikantnega.

Seveda se Uber (plan: samovozeci taxi brez soferja do novega leta 2019) in Tesla (half-baked driving assitance sistem, ki ga reklamirajo kot sistem avtonomne voznje) s tem ne strinjata, ampak sem preprican, da jima bodo strici iz NTSB ze pojasnili. Imajo oni obsezne izkusnje z 70 let preiskovanja letalskih nesrec, recimo.
...in vsaj 18 let ucenja na neprimerno vecji nevronski mrezi. Ampak to ni tezava, ker nekatere stvari, ki jih clovek pocne niso tako kompleksne, da bi bila polna izraba kapacitet potrebna.
Tega ne vemo. Gre za menjavo paradigm, predpostavka je, da je to dovolj. Ni pa samoumevno.
> Ni lidarja in nevronske mreze, ki bi na 30 metrov uspela oceniti, ali je gruca otrok ki se igra z zogo pod nadzorom njihove mame v blizini, ali pa mama morda izgleda raztresena, in bo eden od otrok skocil na cesto.

V bistvu je. Opisano je dober problem za recurrent network, ki dobi prepoznane inpute in se mora odlociti, kaj se lahko zgodi.
In kako natancno to dela? Saj se ljudje ne znamo dobro pojasniti od kje "intuicija" ali "zazdelo se mi je". Samo zato, ker je mreza crna skatla, v kateri ne vidimo dobro logike odlocanja, se ne pomeni da pa ziher dobro dela. Sploh ne veste (tudi jaz ne!), kako velik del znanja ki prinese "gut feeling" da je pesec recimo zmeden izhaja iz kulturnega okolja (in bo morda delovalo v Nemciji, v Sloveniji pa ne vec).

Ze nekaj casa opazam (to je nekako od zacetkov startup manije v sloveniji naprej) da se brzi v implementacijo necesa, za kar sploh se ni bilo nikoli izvedenih bazicnih raziskav, in se upa, da bo teorija, ki nikoli ni bila dobro preizkusena v solidnih testih (recimo na ljudeh v kontroliranih pogojih!) kar zdrzala. Potem se pa, ko zadeve ne delajo cisto, malo goljufa, pa malo prilagaja, pa na koncu postrika v pol delujoc ali nedelujoc izdelek. To pravim zato, ker sem tudi sam bil zraven pri kaksni zadevi, kjer se je tocno to zgodilo. Zaceli s tem da bomo sli iz TRL4 do TRL6/7, potem se pa izkaze da moramo nazaj na TRL1, ker osnove niso jasne. In to na 3/4 projekta/razvoja. In redko kdo naredi domaco nalogo in potem stvari naredi, kot je treba.
> Razumevanje, clovesko razumevanje okolice je bistven predpogoj za defenzivno voznjo, torej za predvidevanje, kateri od udelezencev v prometu bo naredil napako. Vprasam vas, zakaj ne damo 10 letnikom vozniskega izpita pod enakimi pogoji, kot ga damo 16 ali 18letnikom? Vidijo enako dobro, slisijo bolje, zakaj torej ne? Zgoraj imate odgovor. Razumevanje, ki je pri 10 letniku pac precej bolj primitivno kot pri 18 letniku.

Ta predpogoj se avtonomna vozila tudi trudijo izpolnjevati. Sicer sploh ne bi vozila.
Z dolznim spostovanjem, sedanja tehnologija, ki poganja AI, tega ni zmozna. Celo vec, bistvene logike tega ne poznamo. Manjkajo temelji.
> Se enkrat, uspesnost prehoda iz dobrega razumevanja v hiper-senzoriko sploh ni done deal, in cela industrija avtonomnih avtov kar predpostavlja da je.

Ker ima dobre rezultate. Kaj pa naj drugega predpostavi? Da jih bo politika ustavila, kljub boljsim rezultatom od cloveskih voznikov, ker strah?
Mene sploh ne skrbi za politiko. Kot sem ze rekel, zadeva se lahko vrne kot bumerang kot odpor javnosti, ker, surprise surprise, to ne bi bilo prvic v podrocju umetne inteligence, ampak ze tretjic. Se se spomnite, kako so planirali narediti avtomatske sisteme za prevajanje konec 60tih (z onim znano ampak izmisljeno anekdoto o gnilem mesu in smrdecem vonju pri prevajanju iz anglescine v ruscino in nazaj). Sedaj smo leta 2018 in imamo priblizno uporabne resitve. A res tako zaupate da bodo samovozi na cesti 2019, in da ne bodo povzrocili dovolj ljudem tujih nesrec, da se ne bo podrocje popolnoma zaustavilo? Jaz bi bil zelo previden.
Letalska industrija je imela do pred nekaj leti na voljo isto znanost, kot vse druge in ta znanost preprosto ni omogocala prijemov, ki se jih uporablja danes. Letala, ki jih razvijajo danes, *bodo* avtonomno pristajala.
Govorim o human factors, ki so v letalski industriji zelo dobro razumljeni in nastudirani (hvala bogu eno od podrocij, kjer avtonomni avti imajo bazicne raziskave narejene). Problem je, da fanboyi kot je Elon Musk zadeve ignorirajo, ker so zakljucki prevec boleci za njihov bottom line in njihove sanje.
> Eno od spoznanj je to, da je v avtomatskem sistemu clovek najsibkejsi faktor, s cimer se letalska industrija ukvarja ze desetletja ("human factors"), recimo od prvega glass cockpita naprej, pa se vedno ni uspela resiti problemov (prevec pogosto se dogaja, da letalo leti na avtopilotu, oba pilota pa zadremata). To so zelo slabi obeti za Level 3 in Level 4 avtomobile.

Skoda, ker se ne da patentirati ideje, da se voznike pripne na senzorje in jih avto/letalo nadzira. To pa res ni tezko. Zaznalo bo pijane, neprespane, custveno razrvane in zaljubljene...skratka, vse nevarne.
A veste kaj je problem? Niti ne znamo definirati, kako "videti" da je voznik nevaren. Gledamo lahko njegove roke, merimo hitrost avta, zaznavamo zavijanje, itd, pa je se vedno precej velika uganka kako iz tega oceniti ali je treba voznika vreci iz soferskega sedeza. To je velikanski problem, ker se do tega trenutka z zadevami pac ni ukvarjalo veliko ljudi na sistematicen nacin, ker senzorji pac niso bili toliko dostopni, da bi se to splacalo sploh raziskovati. Lahko zaznamo da ne gleda na cesto in da ne drzi volana (v tem primeru je kreten ali psihopat ali pa spi), vsi odtenki vmes so pa se velika uganka.

> Zelo hitro lahko pricakujemo vsaj v ZDA zahtevo po standardnih "crnih skrinjicah" v avtih z level 3 avtonomijo ali vec, NTSB v ZDA ne bo dolgo gledal tega, da so pri preiskavah odvisni od preiskovancev (ki, kot Tesla v nasprotju z zakonom in uveljavljenimi standardi preiskovanja letalskih nesrec, dajejo kar svoje zakljucke v javnost).

Saj jo ze vsi imajo...
Tesla je nima. In NTSBju to ni vsec (poanta crne skrinjice je standarden vmesnik). Ce moras z v nesreci razbitim racunalnikom iti k proizvajalcu avta in od njega potem dobis podatke, je chain of evidence pretrgan in taki podatki niso cisto verodostojni.

Strani: 1