Stor röd brandbil

TeslaFiretruck1

Hur ska Tesla kunna låta en bil köra genom USA på egen hand när den inte ens märker en stor röd brandbil utan kör rätt in i den? Den frågan har jag fått flera gånger de senaste dagarna.

En krasch mellan en Tesla och en brandbil uppmärksammades mycket i medierna och precis när storyn börjat svalna togs den upp igen av många som avskräckande exempel på hur dåliga de självkörande bilarna är. När det i själva verket är precis tvärtom.

Många gör än i dag det grundläggande felet att tro att Teslas autopilot är självkörande. Trots alla dessa år vi har haft den, och många konkurrenter som sedan dess har släppt liknande system. Autopiloten är ett hjälpmedel till föraren. Den klarar av att styra bilen så den följer filen bilen befinner sig i. På svenska kan man säga att autopiloten är en farthållare kombinerat med en filhållare. That’s it. Trots att bilen då följer filen när vägen svänger, ungefär som tåg följer spåren den åker på, så är det fortfarande den mänskliga föraren som ska vara uppmärksam på trafiken omkring och fatta beslut. Att skylla en krock på autopiloten är ungefär som att skylla en krock på en farthållare.

TeslaFiretruck2

Fanboy-snack och undanflykter! En stor röd brandbil kan du inte bortförklara! Kommer självkörande bilar krocka i utryckningsfordon till höger och vänster i framtiden? Autopiloten är farlig! Självkörande bilar är farliga!

Jag menar tvärtom, krocken belyser att autopiloten och självkörande bilar är två helt olika saker. För låt oss titta närmare på exakt hur olyckan i USA gick till:

firetruck

Brandbilen stod stilla på motorvägen, lite snett med bakändan ute i ena körfältet. Framför svarta Teslan på väg mot den körde det en blå pickup. Pickupens förare reagerade ganska sent på hindret framför honom så han väjde i sista sekunden undan brandbilen. Det var först Teslans autopilot såg brandbilen. Innan dess var ju dess synfält blockerad av pickupen framför Teslan.

Teslans autopilot såg alltså brandbilen, det är inte det som var problemet. Så varför kraschade den då i alla fall? Tja, vad annat kunde den kunnat göra?

Autopiloten gjorde det enda den kunde göra och bromsade utav h-e. Minskade farten, men inte tillräckligt för att hinna stanna, avståndet var redan för nära. Det var det enda den kunde göra, för autopiloten kan ju inte byta fil.

Autopiloten är tvärtom byggd för att slaviskt följa filen bilen befinner sig i. Att byta fil är mänskliga förarens jobb. Om människan slår på blinkersen byter autopiloten fil – men aldrig på eget bevåg.

Om bilen skulle ha styrts av mänskliga föraren men han hade farthållaren på, skulle olyckan varit farthållarens eller människans fel? “Varför vred du inte på ratten?” är ju berättigade frågan polisen skulle ha ställt föraren.

Exakt samma fråga bör de ha ställt svarta Teslans förare. Även med autopiloten på är det förarens ansvar att vrida på ratten för att byta fil. (Vilken förklaras väldigt tydligt i manualen för autopiloten, alla Teslaägare är medvetna om att byta fil är deras ansvar.)

Vad skulle en riktig, äkta självkörande bil ha gjort i samma situation? Bytt fil förstås. Precis som människan i bilen framför. Därför har den här olyckan ingen relevans i diskussioner kring självkörande bilar.

En viktig grej till: vad skulle det ha hänt även med en riktig, äkta självkörande bil om det till exempel funnits en bil i filen bredvid så den inte kunde väjt undan brandbilen i alla fall? Tja, den skulle väl ha krockat då. Antingen med brandbilen eller med bilen i filen bredvid. Vi kommer ha olyckor även med självkörande bilar – för att det finns helt enkelt situationer i trafiken där en olycka blir oundviklig hur man än gör. Folk kommer skadas och dö även i självkörande bilar, fast förhoppningsvis i mindre antal än idag. Men ner till noll kommer vi inte. Vilket ingen klickhungrig tidning eller YouTubekanal kommer berätta så här sansat.

Tagged , . Bookmark the permalink.