'Elon Musks lynkursus' tager et overfladisk blik på tekniske og regulatoriske fejl

Uanset hvor smart eller visionær nogen kan se ud til at være på overfladen, er det vigtigt at huske, at de i sidste ende er menneskelige og fejlbehæftede. Bare fordi de formår at få succes på nogle områder, betyder det ikke, at de kan gøre det samme i alt, hvad de prøver. Derfor er det afgørende vigtigt at undgå at sætte folk på for høj en piedestal, fordi det vil gøre ondt, når de styrter ned. En ny dokumentarfilm udgivet af New York Times
NYT
og nu prøver streaming på Hulu at tage et kig på Elon Musks bestræbelser på at fremme og sælge automatiseret kørsel på Tesla
TSLA
køretøjer, men kommer til kort, hvad det kunne have været.

Ved en køretid på 74 minutter, "Elon Musks lynkursus” forsøger at dække meget, men i sidste ende ser det ud til, at det bruger for meget tid på nogle emner og ikke nok på nogle af de vigtigste. Instruktør Emma Schwartz åbner filmen med et kig på Teslas oprindelse og bestræbelser på at udvikle automatiserede køretøjer, der går tilbage til en GM reklamefilm fra 1956 med Firebird II-konceptet og DAR
AR
PA Grand Challenge.

Men hvor filmen ser ud til at gå galt, bruger man for meget tid på Joshua Brown. Brown var den tidligere flådes bombebortskaffelsesekspert, der var den første kendte dødsulykke, mens han brugte Teslas AutoPilot førerassistentsystem. Betydelige dele af filmen er overgivet til at høre fra nogle af Browns venner om, hvorfor han var så vild med AutoPilot, at han lagde mere end 45,000 miles på sin Model S i de ni måneder mellem udgivelsen af ​​AutoPilot og hans død i maj 2016.

Mens New York Times-reporterne Neal Baudette og Cade Metz gør et dygtigt stykke arbejde med at forklare nogle af begrænsningerne ved AutoPilot, har de fleste af de mennesker, der nok burde se en film som denne, sandsynligvis ringe eller ingen teknisk viden om, hvordan automatiseret kørsel fungerer. Disse medlemmer af den brede offentlighed ville have stor gavn af en solid primer, der skærer igennem de mange misforståelser omkring automatiseret kørsel, hvoraf mange er blevet offentliggjort af Teslas CEO Musk selv gennem årene.

Seerne kunne lære nogle vigtige lektioner om, hvad det faktisk kræver at skabe, teste og validere et automatiseret køretøj, hvis filmen havde inkluderet interviews med personer som Carnegie Mellon University, professor i datalogi, Phillip Koopman, eller Ann Arbor-baserede advokat Jennifer Dukarski. I stedet får vi en masse ord fra venner af Brown, der forklarer, hvor interesseret han var i teknologi, og hvorfor han var så ubøjelig med at teste grænserne for sin bil.

Til ære for filmskaberne, de gjorde, inkluderede interviews med et par tidligere ingeniører på AutoPilot-teamet, medlemmer af National Transportation Safety Board (NTSB), herunder tidligere formand Robert Sumwalt og Bryan Thomas, tidligere kommunikationsdirektør for National Highway Traffic Safety Administration (NHT
HT
SA).

Raven Jiang og JT Stukes erkendte begge begrænsningerne ved AutoPilot. "Vi ønskede at forsøge at gøre AutoPilot sikker," sagde Jiang.

"På tidspunktet for det nedbrud var jeg klar over, at folk stolede på, at systemet gjorde ting, som det ikke var designet eller i stand til at gøre," tilføjede Stukes. "Det faktum, at den slags ulykke skete, er selvfølgelig tragisk, men det var noget, der skulle ske."

En grund til, at det sandsynligvis ville ske, er, at Tesla har besluttet at gå med et kamera først og nu kun kamera-system. "Der var ingen dyb forskningsfase, hvor forskellige køretøjer var udstyret med en række sensorer, det ville mange teammedlemmer gerne have, i stedet blev konklusionen draget først, og derefter begyndte test- og udviklingsaktiviteterne at bevise, at konklusionen var korrekt."

I løbet af de sidste 15 år har Musk skubbet frem mange store udviklinger inden for raketer og popularisering af elbiler og softwaredefinerede køretøjer. Men når det kommer til sikkerhedskritiske systemer, er der ingen genveje. Når liv er på spil, er det dem, der skaber teknologier, ansvar at tage behørigt hensyn. Når de undlader at gøre det, som Musk gentagne gange har gjort med AutoPilot og Full Self-Driving, er det sikkerhedsregulatorernes ansvar at styre disse mennesker.

Det er her, jeg ser filmens største fejl. NTSB har ansvaret for at efterforske transportulykker af alle slags, herunder luftfart, jernbane, marine og landkøretøjer. I kølvandet på Brown-ulykken kom NTSB med mange fremragende anbefalinger, herunder at kræve mere robust førerovervågning for systemer, der stadig kræver menneskelig overvågning som Tesla AutoPilot/FSD, GM's Super Cruise og alle andre systemer på vejen i dag. NTSB anbefalede også, at systemer skulle geofences til de veje, hvor de kan fungere sikkert.

NHTSA er det agentur, der har regulerings- og håndhævelsesmyndighed over bilindustrien. I de seks år siden Browns død har der været adskillige andre dødsulykker, der involverer misbrug af AutoPilot, men NHTSA har overhovedet ikke gjort noget for at implementere nogen af ​​NTSB-reglerne. Kun i de sidste 12 måneder siden administrationsskiftet i Washington er NHTSA endda begyndt at foretage seriøs dataindsamling på delvist automatiserede systemer, og det er enhvers gæt på, hvornår noget konkret vil blive gjort.

Filmen dropper helt at se på, hvorfor NHTSA intet har gjort for at sikre, at delvise automatiseringssystemer faktisk er verificeret til at være sikre og effektive. Om noget har agenturet gjort det muligt for Tesla at fortsætte med at sælge en teknologi, der faktisk ikke virker, og promovere den mere end nogensinde. For at være retfærdig kunne andre statslige agenturer som Federal Trade Commission også forsøge at løse i det mindste markedsføringssiden af ​​dette problem, men filmen ser ikke på manglerne hos nogen regeringsembedsmænd.

I et kapitalistisk system er det slet ikke usædvanligt, at virksomheder forsøger at slippe af sted med så meget, som de overhovedet kan, i jagten på profit. Det er regeringernes opgave at opsætte de sikkerhedsgelændere, der er nødvendige for at beskytte offentligheden mod skruppelløse virksomheder. Det er journalisternes opgave at holde lys over alle fejlene i processen, så vi som befolkning kan være opmærksomme og holde alle til ansvar. Elon Musks Crash Course havde en mulighed for at gøre meget mere omkring historien og tabte bolden. Der skal gøres mere for at fortælle sandheden om, hvad der sker med alle de involverede parter i denne tragiske fortælling.

Kilde: https://www.forbes.com/sites/samabuelsamid/2022/05/23/elon-musks-crash-coursetakes-a-cursory-look-at-engineering-and-regulatory-failure/