Maw skrev: ↑05 jul 2023 11:39
clecab skrev: ↑05 jul 2023 11:29
Enligt TeslaFi så har fler än 100 bilar i Sverige fått 2023.20.7 som är den senaste releasen som även innehåller FSD.
Själv så fick jag den igår och fick möjligheten att dela med mig att delvis eller helt hur jag kör. Så det verkar som Tesla vill kunna skugg köra och lära sig hur vårat vägklimat fungerar innan de kan släppa på funktionerna. Förstås efter att lagvrängarna fått hålla tillbaka tills de tyska premium tillverkarna fått sina system att fungera!
De Tyska premiumtillverkarnas (Mercedes via Svensk underleverantör) system för level 3 fungerar redan och används i Europa och i USA. Tesla ligger tyvärr hopplöst efter och har för dålig hårdvara för att klara mer än level 2 ens i USA. Teslas nuvarande bilar kommer inte bli självkörande utan kraftiga modifieringar, de kommer fortsatt enbart ha förarstödssytem.
Att säga att Tesla är hopplöst efter tycker jag är fel. Dom är långt fram, men gör fel saker om du frågar mig. Graalen kortsiktigt är L3 på motorväg i motorvägsfart, eller än heller L4. Tänk vad skönt att kunna ta en tupplur mellan laddningarna på SuC...
Jag tror dock inte heller att Teslas nuvarande bilar kommer att bli autonoma, och det beror inte på lagstiftarna, utan på att dom gör fel för ofta. En människa har ca två olyckor per livstid i genomsnitt. Säkrare än en människa bör därför innebära ett sådant misstag per 300 000 km. Eller kanske det dubbla om man tänker på att i varannan olycka är man inte själv vållande. Tesla ligger på ett fel är 15 km i stadstrafik just nu efter tre års jobb sedan den senaste omskrivningen av systemet. Kanske en av hundra av dom här felen skulle leda till en krash, men det skulle fortfarande bara vara 5 (eller 2.5) promille av en mänsklig förares tillförlitlighet.
Jag brukar påminna folk om att computer vision (CV) inte används utan mänsklig övervakning i säkerhetskritiska tillämpningar inom något fält ännu. Jag har inte hört något om det i alla fall. I t ex cancerdiagnostik använder man CV under mänsklig övervakning och lägg till att självkörande bilar är långt mer komplicerat samt tidskritiskt (man måste fatta besluten inom en bråkdel av en sekund).
Jag skrev det här på ett annat forum idag:
Neural nets uses probability for “learning”, which makes training for the uncommon or unknown hard. NN:s are typically a block box and lack explainability, which makes validation very hard. To makes these systems viable in unsupervised safety critical applications, you limit the bounds in which they operate. Eg max speed, geo area, weather and so on. This limitation is referred to as an ODD (operational design domain).
We don’t yet trust unsupervised computer vision in any safety critical applications including radiology (and driving is time critical too) which should tell you something about the short term viability of vision-only. In order to drive safer robotaxi companies have at least three more sensing modalities (lidars, radars and microphones) and detailed maps so they know what’s up ahead and/or occluded from the view (just like humans do). Having more modalities makes the system more robust by orders of magnitude and less susceptible to adversarial attacks too. Tesla has started to use maps extensively by crowdsourcing them from the fleet, a concept pioneered by Mobileye 8 years ago or so. But you can’t rely on the maps to be correct, as things change with roadwork etc. Tesla seem to be over reliant on map data at the moment (incorrect speed limit, phantom breaking, running stop signs).
Teslas system kommer dock att bli bättre, långt bättre. Frågan är om det ökar eller minskar säkerheten på vägarna så länge de inte är bättre än en mänsklig förare? Forskare menar sedan länge (40 års forskning) att människor är extremt dåliga på att övervaka automatiserade system, och människan tillför inget säkerhetsvärde om systemet är så bra att det "funkar hela tiden" (säg ett allvarligt misstag var 500-5000 mil kanske). Detta fenomen kallas för Valley of degraded supervision". Människan börjar lita för mycket på systemet och gör andra saker (checkar ut mentalt, eller börjar pilla på telefonen, eller sminka sig är några exempel).
Skulle Tesla ta legalt ansvar för ett system som krashar av 5000 mil skulle dom gå i konkurs rätt snabbt givet storleken på flottan. Så länge en tillverkare inte tar ansvar för det "autonoma" systemet så betyder det indirekt att det inte är tillräckligt bra, och jag skulle aldrig använda det utan aktiv övervakning.