Prepir o tem, ali bo Tesla FSD povozil otroka ali lutko, zgreši bistvo

A nedavni video od TesleTSLA
- kritik Dan O'Dowd iz projekta "Dawn Project" prikazuje testno stezo s cesto iz stožcev. Tam se voznik, ki uporablja Teslin prototip FSD, zapelje proti otroški lutki in jo zadene. Trdi se, da Telsa FSD ne zavira zanesljivo za otroke. Kritiki O'Dowda so trdili, da je bil videoposnetek ponarejen ali slabo ustvarjen, in nekateri so posneli svoje lastne predstavitve, vključno z, na žalost vseh, izvajanjem testa z dejanskimi živimi "prostovoljnimi" otroki. Le redki so razmišljali o vprašanju, ali naj bi prototip, kot je Tesla FSD, zanesljivo zaviral za otroke, kar je resnično zanimivo vprašanje.

O'Dowd je pogosto pisal, da želi prepoved Tesle FSD. Prej sem poročal o njegovi kampanji, in pred kratkim se je potegoval za nominacijo za kalifornijski senat samo zato, da bi prikazoval oglase proti Tesli FSD. Seveda je povzročil jezo Elona Muska in glasne skupnosti, ki podpira Teslo. Tako je prišlo do takojšnjega sparinga. Prvotni videoposnetek, povezan zgoraj, ni pokazal aktiviranja FSD, čeprav so kasnejše izdaje pokazale, da je bil. Nekateri so predlagali, da težko berljive slike na zaslonu kažejo, da je voznik držal pedal. Drugi podatki kažejo, da avtomobil upočasnjuje ali oddaja opozorila, argumenti pa so šli naprej in nazaj o tem, kako resničen je prikaz.

OGLAS

Demonstracija je bila izbrana kot provokativnost, saj ni nič bolj strašnega kot avtomobili, ki zbijajo otroke. V ZDA vsak dan v prometnih nesrečah umrejo 3 otroci, vsako leto pa zaradi avtomobilov umre okoli 170 otrok pešcev. Mnogi se odzivajo, da nobena tehnologija, ki bi kdaj povozila otroka, ni sprejemljiva. NHTHT
SA je začela preiskavo uvedbe Teslinega avtopilota (ki je izdani izdelek) in začenja proučevati prototip FSD. Tudi drugi, kot je Ralph Nader, so pozvali k odstranitvi prototipa FSD s ceste. Potem ko je zelo majhno število ljudi ponovilo test s pravimi otroki, je NHTSA izdala opozorilo, naj tega ne počnejo, Youtube pa je umaknil videoposnetke ljudi, ki so to počeli. Tesla je menda zahtevala, da se odstranijo tudi videoposnetki njihovega avtomobila, ki trči v preskusno lutko. Washington Post poroča, da je Tesla videl pismo o prekinitvi in ​​opustitvi.

To vprašanje je zelo zapleteno in kot ni preveč nenavadno, ga nihče ne razume povsem prav. Sistem FSD, čeprav se imenuje beta, se bolj natančno imenuje prototip. Samovozeči prototipi (in beta) po mnenju večine razvijalcev res potrebujejo veliko testiranj na cesti in vsaka ekipa to počne, s človeškimi "varnostnimi vozniki", ki spremljajo sistem in redno posredujejo, ko naredi napake, da preprečijo incidente. Tesla je nenavadna v tem, da dovoljuje običajnim strankam, da sodelujejo pri tem testiranju, medtem ko imajo vsa druga podjetja zaposlene, ki opravljajo to nalogo z določeno stopnjo izobrazbe in imajo običajno 2 zaposlena na vozilo.

Prototipi po svoji naravi ne uspejo, tudi pri pomembnih stvareh, kot je ustavljanje pešcem na cesti. Vsaka ekipa, od najboljše, kot je Waymo, do najslabše, je na cesto poslala vozila, ki bi redno naredila kaj hudega, razen za posredovanje, in večina meni, da je bilo in je še vedno potrebno testiranje takšnih vozil v zgodnji fazi za napredek in končno uporabo avtomobilov. Ko bodo uvedeni, bodo avtomobili veliko višje kakovosti in bodo reševali življenja – veliko njih – zato si vsi želijo, da se ta uvedba zgodi čim prej, vendar je treba razpravljati o številnih vprašanjih o tem, kako priti do te točke in kdaj smo jo dosegli. to.

OGLAS

Driver Assist proti samostojni vožnji

Poleg vprašanja, ali je Teslina uporaba strank za preizkušanje njihovega prototipa dobra ideja, se veliko vprašanj vrti okoli razlike med sistemi za pomoč vozniku, ki vključujejo človeka, ki je popolnoma vključen v vožnjo, vendar nadzoruje sistem, namesto da se fizično premika. krmiljenje in samovozeči sistemi, kjer ni potreben človeški nadzor (in vozilo dejansko lahko teče brez nikogar v njem.)

Številni poznavalci industrije menijo, da gre za dve precej različni stvari in da je bila NHTSA napaka, ko ju je razglasila le za dve različni "ravni" tehnologije avtomatizacije. Sterling Anderson, soustanovitelj podjetja Aurora self-driving, meni, da je prehod od voznikove asistence (ali ADAS, za napredno pomoč vozniku) k samovozenju, kot da bi poskušali priti na luno z gradnjo višjih lestev.

Prvi veliki napredni sistem za pomoč vozniku, ki je človeku omogočil, da umakne noge s pedal, je bil tempomat, zlasti prilagodljivi tempomat. Kasneje se je pojavilo ohranjanje voznega pasu, ki vam je omogočilo, da umaknete roke z volana, in kmalu sta bila združena v izdelkih, kot je Teslin »avtopilot«. Kot orodja ADAS (pomoč vozniku) so namenjena uporabi s polno pozornostjo.

OGLAS

Čeprav sprva niso vsi verjeli, je danes splošna ugotovitev, da ti sistemi delujejo in ne ustvarjajo nevarnosti na cesti. Ljudje so sprva dvomili o osnovnem tempomatu, vendar je kmalu postal zelo pogosta lastnost avtomobilov.

Teslin avtopilot je sprožil nova vprašanja iz različnih razlogov, a najbolj zanimivo vprašanje se vrti okoli dejstva, da je očitno boljši v funkcionalnosti od prejšnjih izdelkov, vključno s preprostejšimi tempomati - vendar bi ga ta superiornost dejansko lahko naredila bolj nevarnega in s tem slabšega. Pojavi se nenavaden paradoks, kjer boljši kot je sistem, slabši je lahko rezultat, ker boljši sistem povzroči »samodejstvo avtomatizacije«, kjer je nadzorni voznik manj pozoren na cesto. (Nekateri tudi menijo, da Teslova imena »avtopilot« in FSD spodbujata to samozadovoljstvo, prav tako pa to počne tudi javno sporočanje o teh izdelkih.)

To ni dober paradoks. Želimo razviti boljše sisteme, a če se sistem na splošno slabša, ko ga izboljšujete, je veliko težje pridobiti res dobre sisteme, ko potujete skozi dolino nevarnosti, kjer se stvari poslabšajo, preden se izboljšajo. Danes standardnemu tempomatu nikoli ne bi očitali dejstva, da bo zbil otroka ali pihal skozi rdečo luč - ti sistemi so bili veliko enostavnejši in se sploh niso mogli izogniti tem napakam. Toda mnogi želijo kriviti veliko boljši sistem, ki se ustavi pri večini ovir, ker se ne ustavi 100 % — čeprav noben sistem nikoli ne bo tako popoln, da bi se izognil 100 % napakam, in čeprav tudi ljudje ne bodo popolni.

OGLAS

Sodeloval sem pri pripravi prvih zakonov o testiranju samovožnje na svetu, v Nevadi in Kaliforniji. Igralci so se strinjali, da bi moralo obstajati nekaj osnovnih pravil o tem, kako izvajati testiranje na cestah (prejšnja pravila tega niso prepovedovala, saj seveda nihče nikoli ni pomislil, da bi to storil.) Hkrati so proizvajalci avtomobilov, ki prodajajo orodja ADAS, storili ne želijo, da bi za njihove avtomobile ADAS veljali predpisi o testiranju samovozečega vozila, zato je bilo delovanje ADAS izločeno, ker ni zajeto v teh predpisih.

Zlasti v Kaliforniji je to povzročilo odprto vprašanje. Vsa testiranja samostojne vožnje (z nekaj nedavnimi izjemami) se izvajajo z nadzornim voznikom. Na ta način je zelo podobno vožnji z avtomobilom ADAS. Zakon ni bil jasen glede razlikovanja, kar je povzročilo nekaj zanimivih situacij. Anthony Levandowski, ki je tudi sodeloval pri pripravi predpisov, je bil pozneje vodja UberjaUBER
ATG. Izjavil je, da ker so vsi njihovi avtomobili takrat upravljali samo z varnostnim voznikom, je bil to ADAS in Uberju ni bilo treba upoštevati predpisov o testiranju samovozečega. Kalifornijski DMV je rekel ne, da po tej logiki nihče ni preizkušal samovožnje in to ni bil namen zakona. Uberju so povedali, da se morajo registrirati kot samovozeča testna vozila, sicer bodo s svojimi posebnimi močmi potegnili registrske tablice Uberjevih avtomobilov. Uber je upošteval.

OGLAS

DMV je sprejel pristop, da bi morali, če poskušate izdelati samovozeči sistem, čeprav je bil zgodaj nepopoln in je potreboval nadzor in je bil vedno nadzorovan, veljati za podjetje za testiranje samovozečih vozil, ki ga urejajo pravila.

Kljub temu Tesla nadaljuje z istim pristopom. Ker Tesla vsekakor ima izdelek ADAS, državi nikoli ne poročajo o testiranju samovozečih vozil. Doslej je DMV to pustil na cedilu – celo testiranje Teslinega FSD s strani zaposlenih v Tesli, kar je zelo težko razlikovati od tega, kar so preprečili Uberju. DMV bi lahko to uredil. Kaj pa uporabniška uporaba, kjer je uradno (če preberete drobni tisk in prezrete ime) orodje za pomoč vozniku?

Ampak zdi se, da deluje

Glavna rešitev za to so bili načini za zagotovitev, da pozornost nadzornikov ostane visoka. Za to obstajajo različne tehnike, vključno s spremljanjem voznika na različne načine in nagajanjem, če ni pozoren, ali, kot je bilo omenjeno, usposobljeni poklicni vozniki ali celo ekipa voznikov, ki imajo več oči na cesti. Dolga desetletja smo v avtošolah usposabljali najstniške voznike z inštruktorjem, ki lahko prime volan in ima lastno zavoro, da ustavi avto, in ta sistem je zelo dobro deloval.

OGLAS

Trdna ugotovitev do zdaj je, da to deluje. Varnostna evidenca večjih samovozečih podjetij, kot je Waymo, je zgledna. Waymo je leta 20 poročal o več kot 2021 milijonih milj testiranja z varnostnimi vozniki in v tem času je imel morda 2 nesreči zaradi krivde. Človek bo v tem času v povprečju imel blizu 40 nesreč. Tako kot se učenci vožnje z inštruktorji vožnje odrežejo veliko bolje kot vozniki s svežim vozniškim dovoljenjem, nadzorni sistem očitno deluje in ta vozila dejansko predstavljajo manjše tveganje za javnost kot podobna vožnja običajnih ljudi.

Vsaj v ZDA, če se nihče ne poškoduje - ali vsaj če je stopnja tveganja manjša od običajne vožnje - dejavnost na splošno ne bi bila regulirana. Pristop ZDA je veliko bolj popustljiv – ni vam treba dokazovati, da je to, kar počnete, varno, a če se izkaže, da ni varno, vas lahko ustavijo in spoznajo za odgovornega za vso škodo, ki ste jo povzročili. Nekatere druge države bi od regulatorjev zahtevale, da se vnaprej odločijo, ali je nekaj varno, kar je veliko višja meja, ki je veliko manj ugodna za inovacije.

Seveda je bil v enem znanem primeru pristop varnostnega voznika smrten, ko je vozilo Uber ATG ubilo pešca v Arizoni. Preiskava NTSB in kasnejši sodni primeri so ugotovili, da je bila varnostna voznica malomarna (gledala je televizijo, namesto da bi opravljala svoje delo), čeprav so Uberju očitali tudi slabo kulturo upravljanja varnostnih voznikov, kar je prispevalo k tej napaki. Pomembna ugotovitev pa je, da sistem varnostnega voznika deluje in sam po nepotrebnem ne ogroža javnosti, čeprav je očitno možno, da so vozniki za varnost ljudi malomarni in povzročijo veliko tveganje.

OGLAS

To je sistem z usposobljenimi plačanimi vozniki. Tesla gre še dlje in poskrbi, da delo opravijo običajni kupci. Bilo je več incidentov, ko so bili vozniki Tesle očitno malomarni pri nadzoru izdelka Autopilot, in zgodile so se prometne nesreče, vključno s smrtnimi žrtvami. Vendar avtomobili Tesla z avtopilotom prevozijo veliko več kilometrov kot katera koli samovozeča ekipa, zato prisotnost negativnih in celo tragičnih dogodkov ni nujno dokaz, da sistem izpostavlja javnost večjemu tveganju.

Tesla vsako četrtletje objavi zavajajoče statistične podatke, ki navajajo, da imajo vozniki, ki uporabljajo avtopilota, boljše varnostne podatke kot tisti, ki ga ne uporabljajo, čeprav so nekateri uporabniki avtopilota malomarni. Čeprav so te številke enake laži, Jaz in drugi smo poskušali z obratnim inženiringom narediti realne številke, in dejanske številke niso tako slabe in kažejo, da imajo uporabniki avtopilota podoben varnostni zapis kot neuporabniki. Čeprav ni boljši, ljudi tudi ne izpostavlja dodatnemu tveganju. Rezultat je dovolj blizu, da NHTSA izvaja preiskavo nesreč Tesle z reševalnimi vozili. Ni znano, ali bodo uporabili previdnostni pristop ali bodo preučili celotno varnostno evidenco.

Mnogi so predlagali, da bi Tesla lahko izboljšala svoj rekord z boljšim nadzorom voznikov. Standardni nadzor preprosto zahteva, da voznik redno pritiska na kolo. Druga podjetja imajo kamere, ki opazujejo voznikove oči in se prepričajo, da opazujejo cesto – če bi Uber ATG to storil, bi preprečili njihovo smrt. Tesla je pred kratkim začela uporabljati tudi nadzor voznikovega pogleda.

OGLAS

Opozoriti je treba, da je izračun, ki kaže, da je varnost Teslinega avtopilota podobna običajni vožnji, utilitarističen. Pravzaprav gre za kombinacijo višje stopnje nesreč med majhnim kadrom malomarnih uporabnikov avtopilota, ki ignorirajo cesto ali postanejo samozadovoljni z avtomatizacijo, in boljše varnostne evidence tistih, ki so marljivi. S tem imamo filozofske težave – ni nam všeč, da imajo nekateri ljudje večje tveganje, čeprav je več ljudi deležnih manjšega tveganja. Ni nam tako všeč, da bi pridnim ljudem odvzeli orodje, s katerim bi varneje zaščitili malomarne, čeprav to ni naš cilj.

Kaj pa FSD

Zgornji podatki se nanašajo na avtopilot, ki je izdelek za pošiljanje. Tesla FSD ni izdelek za pošiljanje. Imenujejo ga »beta« (ki je skoraj dokončan izdelek v zadnji fazi testiranja pred izdajo), vendar to sploh ni. Zdaj imajo več kot 100,000 lastnikov Tesle, ki jih preizkuša. Za njegovo uporabo mora lastnik plačati pristojbino (ki zdaj naraste na 15,000 $) za prednaročilo morebitnega sistema FSD in opraviti nekakšen izpit varne vožnje, da je sprejet v kohorto za testiranje. Izpit varne vožnje je večinoma lažen in ne preverja, kaj bi dejansko želeli za to nalogo, vendar to pomeni, da ga ne dobijo vsi, ki plačajo.

Voznike opozarjajo, da ima sistem veliko napak in potrebuje stalni nadzor, kot je ADAS, in pravijo: "V najslabšem času bo naredil napačno stvar." To je dokaj jasna izjava, hkrati pa ime »popolnoma samostojna vožnja« očitno pričara drugačno podobo od ADAS-a. Vozil sem s tem sistemom in ocenil, da je njegovo delovanje kot samovozeči sistem precej slabo.

OGLAS

Kljub temu se zdi, da Teslin pristop kljub intuiciji nasprotno deluje. S 100,000 vozniki je sistem podvržen delovanju na milijone kilometrov (čeprav ni javnih podatkov o tem, koliko vsak voznik uporablja sistem.) Prav tako vemo, da obstaja velik javni nadzor vseh nesreč, ki vključujejo testiranje FSD. sistem in le majhno število manjših incidentov je postalo javno. Medtem ko so nekateri preizkuševalci Tesla FSD tako veliki oboževalci Tesle, da bi lahko prikrili nesrečo, ki so jo imeli, je zelo malo verjetno, da se zgodi veliko število večjih nesreč, pri čemer nobena ni razkrita. Vse resne nesreče, o katerih poroča policija, zlasti nesreče s poškodbami, bi zelo verjetno pritegnile pozornost, tako kot pri avtopilotu.

Pa vendar jih ne vidimo. Čeprav to ni prava znanstvena analiza, se zdi verjetno, da Teslin program FSD trenutno ne ogroža javnosti. To je mogoče pripisati temu, kako slab je sistem. Večina voznikov ve, da bi bilo res neumno, če ne bi bili pozorni na ta sistem v njegovem trenutnem stanju. Možno je, da se bo to spremenilo, ko bo bolje. Če upoštevate osnovni tempomat, ki je veliko bolj primitiven, deluje, saj si nihče ne bi upal ne biti pozoren na cesto pri uporabi.

OGLAS

Teslovo poimenovanje

Tesla si ne pomaga z imeni izdelkov. Številni so bili kritični do imena Autopilot, saj je (napačna) javna percepcija, da avtopiloti zrakoplova upravljajo letalo sami. Pravzaprav je letalski avtopilot veliko, veliko enostavnejši sistem kot Teslin avtomobilski avtopilot in deluje samo zato, ker ste v zraku zelo daleč od vsega, kar bi lahko zadeli. Vendar to ne ustavi napačne javne percepcije. Pri FSD je še huje. Ni še na ravni samovozečega, niti približno, in zagotovo ni "poln". Zaradi te zmede je Waymo opustil uporabo izraza samovožnja za opis svojega izdelka, ker se je bal, da je Tesla ta izraz napačno opredelil v javnosti.

Tesla pravzaprav ne potrebuje več navdušenja za svoje izdelke. Prodajajo vse, kar lahko naredijo. Zmedeno je, da namerno uporabljajo ta imena, namesto da bi jih podcenjevali in pretiravali. Prihranili bi si veliko žalosti - razen tiste vrste "vsa reklama je dobra reklama".

Je torej v redu, če bo Tesla zadela lutko v velikosti otroka?

Presenetljiv odgovor je "verjetno". Vsi testni prototipni sistemi bodo delali takšne stvari in razen prepovedi vseh testiranj prototipov ni mogoče zahtevati popolnosti niti pri tako vznemirljivem vprašanju, kot so zrušitve z otroki. Težko je oblikovati regulativni režim, ki bi prepovedal Tesla FSD, ki ne bi prepovedal ali upočasnil tudi razvoja zelo pomembne tehnologije, ki bo sčasoma rešila milijone življenj. Milijoni življenj niso majhna stvar, to bo eden največjih napredkov na področju varnosti v človeški zgodovini.

OGLAS

Lahko bi kvečjemu poskušali definirati stvari tako, da bi tisti, ki nadzorujejo takšne testne sisteme, izpolnjevali določene kriterije. Morda bi vztrajali, da dobijo boljši nadzor (kar Tesla počne). Lahko bi zahtevali, da so profesionalni ali opravijo test, potem pa bi ustvarili telo, ki bi definiralo in izvajalo te teste, kar bi bilo okorno. Inštruktor vožnje lahko postanete le tako, da opravite pisni izpit in pridobite potrdilo o dobrem zdravstvenem stanju, preizkusa spretnosti v živo ni.

Kljub temu bi lahko definirali nabor pravil, kdo lahko nadzira prototipni sistem, in to bi lahko ustavilo Teslino dejavnost. Toda če bi to storili, bi padli v paradoks »bolje kot je, bolj nam ni všeč«. Nočemo otežiti prečkanja te doline, da bi postali boljši sistem. Pravo vprašanje je, zakaj bi sploh želeli iti tja, če ni nihče poškodovan. Trenutno ni poročil o poškodovanih ljudeh, vsekakor ne na stopnjah, ki bi kazale na večje tveganje kot pri običajni vožnji. Nočemo se ujeti v past prepovedi stvari, ker imamo intuicijo, da so nevarne. Želimo samo prepovedati stvari, ki so dejansko nevarne.

Čisto možno je, da bo testiranje Tesle FSD kasneje postalo prenevarno. To se lahko zgodi zaradi samozadovoljstva avtomatizacije ali sprememb sistema. Razumno je, da se od Tesle zahteva, da oblastem poroča o tem, koliko incidentov se zgodi med testiranjem sistema, da bomo lahko vedeli, ali in kdaj postane nevaren. O'Dowdov pristop "to bi morali prepovedati, ker se mi zdi, da bi bilo nevarno" je napačen, vsaj v ZDA.

OGLAS

Preberite in pustite komentarje tukaj

Vir: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- zgreši bistvo/