Re: FSD Beta är imponerande!
Postat: 09 feb 2026 20:02
Här har vi hur FSD V14 hanterar en olycka med avspärrad väg (videon framspolad till rätt startpunkt):
Wholemars fattar inte det här med självkörning. Det har han aldrig gjort. Jag slog vad med honom 2022 att Tesla inte skulle vara L3+ 2024.
Det finns ingen specifik federal lag i USA som säger exakt hur många datorer eller batterier en bil måste ha, men i praktiken är det ett absolut krav för att få ett juridiskt och säkerhetsmässigt godkännande för Nivå 4 (helt förarlös körning).
Här är en förklaring av hur det fungerar:
1. Juridiskt ansvar (Federalt vs Delstatligt)
I USA styrs säkerhetskraven av NHTSA (National Highway Traffic Safety Administration). De kräver inte en specifik teknisk lösning, men de kräver att fordonet är "säkert".
• För en Nivå 2-bil (som Tesla) är det människan som är redundansen. Om datorn hänger sig eller bromsarna fallerar förväntas du som förare gripa in.
• För en Nivå 4-bil (som Waymo) finns ingen människa som backup. Om systemet fallerar måste bilen själv kunna försätta sig i ett "säkert tillstånd" (t.ex. köra åt sidan och stanna). För att garantera detta krävs redundans i mjukvara och hårdvara.
2. "Fail-Operational" – Branschstandarden
För att Waymo ska få tillstånd att köra utan förare i städer som San Francisco eller Phoenix, måste de bevisa för lokala myndigheter (som CPUC och DMV i Kalifornien) att bilen är "Fail-Operational". Det innebär att om en kritisk komponent går sönder, måste det finnas en annan som tar över direkt.
• Dubbla styrsystem: Om elmotorn som vrider hjulen dör, måste en sekundär motor ta över.
• Dubbla bromssystem: Om huvudbromsservon slutar fungera, måste en separat krets kunna stanna bilen.
• Dubbel strömförsörjning: Waymo har två separata batterisystem så att sensorer och datorer aldrig dör vid ett elfel.
3. Skillnaden mot Tesla
Det är här Tesla skiljer sig markant. En vanlig Tesla (Model 3/Y) är byggd som en Nivå 2-bil. Den har inte full redundans på samma sätt:
• Den har oftast bara en styrdator (även om den har två processorer för beräkningar).
• Den saknar redundanta ställdon för styrning och bromsar på den nivå som krävs för förarlös drift.
Tesla hävdar att deras mjukvara kan nå Nivå 4/5 i framtiden, men många experter menar att deras nuvarande hårdvara för privatpersoner skulle behöva uppdateras med just den typen av redundans som Waymo redan har för att någonsin bli godkänd som en riktig "robotaxi" utan mänsklig övervakning.
4. Ny lagstiftning på gång
USA arbetar just nu på nya regler (genom initiativ som "ADS-equipped vehicle safety") som kommer att göra dessa krav mer explicita. Redan nu ser vi att företag som Waymo, Zoox och Cruise frivilligt lägger sig på en extremt hög nivå av redundans för att undvika stämningar och för att få sina tillstånd förnyade.
Sammanfattningsvis: Det är inte en "lag" som säger "du måste ha två batterier", men det är i praktiken omöjligt att få tillstånd för förarlös körning (Nivå 4) utan att ha ett system som klarar av att en kritisk del går sönder under färd.
Det är inte nomalt språkbruk som gäller om man diskuterar definitionen av DDT och OEDR i SAE J3016.Autonom skrev: ↑12 feb 2026 21:17Din definition av förare avviker från normalt språkbruk, och jag tänker bortse från den.
De bilarna som började användas i juni 2025 hade inte någon säkerhetsförare i bilen.
Rent generellt, att man övervakar en automatisk maskin betyder inte att den inte är en automatisk maskin.
Det liknar hur man ställer krav på säkerhetskritiska system i industrier så det verkar helt rimligt. Det får inte finnas någon single point of failure som exempelvis en kamera, strömförsörjning, styrservo, datorkomponent osv som kan förhindra att systemet (bilen) kan sätta sig i ett säkert tillstånd som exempelvis parkera på en säker plats bredvid vägen när en komponent går sönder. Systemet måste också på egen hand kunna upptäcka att något är fel, t ex att en processor börjar räkna fel eller att ett ram-minne börjar fallera eller att strömmen försvinner helt eller delvis.backe skrev: ↑12 feb 2026 21:54Frågade Gemini lite kring krav på bilar som ska vara level 4 och fick det här som svar. Inte säker om det stämmer men ändå lite intressant.
Det finns ingen specifik federal lag i USA som säger exakt hur många datorer eller batterier en bil måste ha, men i praktiken är det ett absolut krav för att få ett juridiskt och säkerhetsmässigt godkännande för Nivå 4 (helt förarlös körning).
Här är en förklaring av hur det fungerar:
1. Juridiskt ansvar (Federalt vs Delstatligt)
I USA styrs säkerhetskraven av NHTSA (National Highway Traffic Safety Administration). De kräver inte en specifik teknisk lösning, men de kräver att fordonet är "säkert".
• För en Nivå 2-bil (som Tesla) är det människan som är redundansen. Om datorn hänger sig eller bromsarna fallerar förväntas du som förare gripa in.
• För en Nivå 4-bil (som Waymo) finns ingen människa som backup. Om systemet fallerar måste bilen själv kunna försätta sig i ett "säkert tillstånd" (t.ex. köra åt sidan och stanna). För att garantera detta krävs redundans i mjukvara och hårdvara.
2. "Fail-Operational" – Branschstandarden
För att Waymo ska få tillstånd att köra utan förare i städer som San Francisco eller Phoenix, måste de bevisa för lokala myndigheter (som CPUC och DMV i Kalifornien) att bilen är "Fail-Operational". Det innebär att om en kritisk komponent går sönder, måste det finnas en annan som tar över direkt.
• Dubbla styrsystem: Om elmotorn som vrider hjulen dör, måste en sekundär motor ta över.
• Dubbla bromssystem: Om huvudbromsservon slutar fungera, måste en separat krets kunna stanna bilen.
• Dubbel strömförsörjning: Waymo har två separata batterisystem så att sensorer och datorer aldrig dör vid ett elfel.
3. Skillnaden mot Tesla
Det är här Tesla skiljer sig markant. En vanlig Tesla (Model 3/Y) är byggd som en Nivå 2-bil. Den har inte full redundans på samma sätt:
• Den har oftast bara en styrdator (även om den har två processorer för beräkningar).
• Den saknar redundanta ställdon för styrning och bromsar på den nivå som krävs för förarlös drift.
Tesla hävdar att deras mjukvara kan nå Nivå 4/5 i framtiden, men många experter menar att deras nuvarande hårdvara för privatpersoner skulle behöva uppdateras med just den typen av redundans som Waymo redan har för att någonsin bli godkänd som en riktig "robotaxi" utan mänsklig övervakning.
4. Ny lagstiftning på gång
USA arbetar just nu på nya regler (genom initiativ som "ADS-equipped vehicle safety") som kommer att göra dessa krav mer explicita. Redan nu ser vi att företag som Waymo, Zoox och Cruise frivilligt lägger sig på en extremt hög nivå av redundans för att undvika stämningar och för att få sina tillstånd förnyade.
Sammanfattningsvis: Det är inte en "lag" som säger "du måste ha två batterier", men det är i praktiken omöjligt att få tillstånd för förarlös körning (Nivå 4) utan att ha ett system som klarar av att en kritisk del går sönder under färd.
Min poäng var att det är en människa i säkerhetsloopen om man bara har en handfull bilar. J3016 försöker vara teknik-agnostisk.Autonom skrev: ↑13 feb 2026 03:01Hela det där sättet att strukturera självkörning som Waymo beskriver gäller inte riktigt längre för FSD efter V11, det faktum att man kör end-to-end neurala nätverk gör att Object and Event Detection and Response inte längre är en separat identifierbar del av mjukvaran.
Det finns ingen som visat i något säkerhetskritiskt fält att en block-box ML-lösning som E2E är, är tillräckligt säker för att ta bort människan ur loopen. Sedan tycker jag att det är lite naivt att tro att Tesla gjort några speciella bidrag till fältet. Dom är bra på att snacka, men i slutändan så springer Ashok och teamet och sneglar på vad Alex Kendall, Drago Angueelov och Dmitri Dolgov hittar på för att tejpa ihop sin budgetlösning.Autonom skrev: ↑13 feb 2026 03:01Ett avgörande skillnad är att man på detta sätt kan hantera ofullständig information (och Youtube-klippet ovan när bilen vände är ett bra exempel på det), vilket Waymo ursprungliga systemering inte kan klara av i praktiken (även om det teoretiskt går gör komplexiteten det omöjligt).
Det låter som du druckit en Tesla-läsk och inte ens har läst på ordentlig om Waymo. Minst 95% Waymos stack är ML. Jag kan rekommendera intervjun med Dmitri Dolgov på No Priors-podden.Autonom skrev: ↑13 feb 2026 03:01Tesla V12 innebar ett genombrott och ett paradigmskifte vilket gör att erfarenheter från Waymo m.fl. inte längre alltid är meningsfyllda.
Musk har i grund och botten förklarat varför man skyndar långsamt, men det tar sig sällan genom bruset. Det har med säkerhet och storleken på databasen att göra, samt troligen releasedatum för V15 och det faktum att t.ex. Tesla’s Cortex AI Supercluster inte blev klart förrän 2024Q4. Man kan också läsa Teslas patentansökningar och lyssna på Ashok Elluswamy föredrag förstå att det det finns en hel del nya saker som gjorts för att kunna förbättra träningen, så det är rätt uppenbart att utvecklingen inte håller på att sakta in. Jag förväntar mig t.ex. att V15 kommer att vara väsentligt bättre på halt underlag.
Det låter rimligt, men det ställer hela Teslas möjlighet att ta någon bil som är såld fram till nu till L4 på kant.Maw skrev: ↑13 feb 2026 07:04Det liknar hur man ställer krav på säkerhetskritiska system i industrier så det verkar helt rimligt. Det får inte finnas någon single point of failure som exempelvis en kamera, strömförsörjning, styrservo, datorkomponent osv som kan förhindra att systemet (bilen) kan sätta sig i ett säkert tillstånd som exempelvis parkera på en säker plats bredvid vägen när en komponent går sönder. Systemet måste också på egen hand kunna upptäcka att något är fel, t ex att en processor börjar räkna fel eller att ett ram-minne börjar fallera eller att strömmen försvinner helt eller delvis.backe skrev: ↑12 feb 2026 21:54Frågade Gemini lite kring krav på bilar som ska vara level 4 och fick det här som svar. Inte säker om det stämmer men ändå lite intressant.
Det finns ingen specifik federal lag i USA som säger exakt hur många datorer eller batterier en bil måste ha, men i praktiken är det ett absolut krav för att få ett juridiskt och säkerhetsmässigt godkännande för Nivå 4 (helt förarlös körning).
Här är en förklaring av hur det fungerar:
1. Juridiskt ansvar (Federalt vs Delstatligt)
I USA styrs säkerhetskraven av NHTSA (National Highway Traffic Safety Administration). De kräver inte en specifik teknisk lösning, men de kräver att fordonet är "säkert".
• För en Nivå 2-bil (som Tesla) är det människan som är redundansen. Om datorn hänger sig eller bromsarna fallerar förväntas du som förare gripa in.
• För en Nivå 4-bil (som Waymo) finns ingen människa som backup. Om systemet fallerar måste bilen själv kunna försätta sig i ett "säkert tillstånd" (t.ex. köra åt sidan och stanna). För att garantera detta krävs redundans i mjukvara och hårdvara.
2. "Fail-Operational" – Branschstandarden
För att Waymo ska få tillstånd att köra utan förare i städer som San Francisco eller Phoenix, måste de bevisa för lokala myndigheter (som CPUC och DMV i Kalifornien) att bilen är "Fail-Operational". Det innebär att om en kritisk komponent går sönder, måste det finnas en annan som tar över direkt.
• Dubbla styrsystem: Om elmotorn som vrider hjulen dör, måste en sekundär motor ta över.
• Dubbla bromssystem: Om huvudbromsservon slutar fungera, måste en separat krets kunna stanna bilen.
• Dubbel strömförsörjning: Waymo har två separata batterisystem så att sensorer och datorer aldrig dör vid ett elfel.
3. Skillnaden mot Tesla
Det är här Tesla skiljer sig markant. En vanlig Tesla (Model 3/Y) är byggd som en Nivå 2-bil. Den har inte full redundans på samma sätt:
• Den har oftast bara en styrdator (även om den har två processorer för beräkningar).
• Den saknar redundanta ställdon för styrning och bromsar på den nivå som krävs för förarlös drift.
Tesla hävdar att deras mjukvara kan nå Nivå 4/5 i framtiden, men många experter menar att deras nuvarande hårdvara för privatpersoner skulle behöva uppdateras med just den typen av redundans som Waymo redan har för att någonsin bli godkänd som en riktig "robotaxi" utan mänsklig övervakning.
4. Ny lagstiftning på gång
USA arbetar just nu på nya regler (genom initiativ som "ADS-equipped vehicle safety") som kommer att göra dessa krav mer explicita. Redan nu ser vi att företag som Waymo, Zoox och Cruise frivilligt lägger sig på en extremt hög nivå av redundans för att undvika stämningar och för att få sina tillstånd förnyade.
Sammanfattningsvis: Det är inte en "lag" som säger "du måste ha två batterier", men det är i praktiken omöjligt att få tillstånd för förarlös körning (Nivå 4) utan att ha ett system som klarar av att en kritisk del går sönder under färd.
Elon har ju lovat i många år att nästa "torsdag" är FSD här och kan köra från kust till kust i USA.Autonom skrev: ↑13 feb 2026 03:01
Musk har i grund och botten förklarat varför man skyndar långsamt, men det tar sig sällan genom bruset. Det har med säkerhet och storleken på databasen att göra, samt troligen releasedatum för V15 och det faktum att t.ex. Tesla’s Cortex AI Supercluster inte blev klart förrän 2024Q4. Man kan också läsa Teslas patentansökningar och lyssna på Ashok Elluswamy föredrag förstå att det det finns en hel del nya saker som gjorts för att kunna förbättra träningen, så det är rätt uppenbart att utvecklingen inte håller på att sakta in. Jag förväntar mig t.ex. att V15 kommer att vara väsentligt bättre på halt underlag.
Det är precis tvärtom. Intervjun med Dmitri Dolgov bekräftar det för mig, för den beskriver många problem som Waymo haft som Tesla V12+ metodik undviker.
Jag är nyfiken. Vad i intervjun syftar du på exakt, och hur undviker Tesla det?
Du skriver att de inte har haft ”säkerhetsförare” sedan juni 2025. Det är förvisso sant eftersom man istället haft en ”säkerhetsövervakare” i passagerarsätet (gäller Austinområdet förutom motorvägskörning tror jag).Autonom skrev: ↑12 feb 2026 21:17Din definition av förare avviker från normalt språkbruk, och jag tänker bortse från den.
De bilarna som började användas i juni 2025 hade inte någon säkerhetsförare i bilen.
Rent generellt, att man övervakar en automatisk maskin betyder inte att den inte är en automatisk maskin.
Han kanske ligger i bagaget numera?Maetlarv skrev: ↑14 feb 2026 16:40Du skriver att de inte har haft ”säkerhetsförare” sedan juni 2025. Det är förvisso sant eftersom man istället haft en ”säkerhetsövervakare” i passagerarsätet (gäller Austinområdet förutom motorvägskörning tror jag).Autonom skrev: ↑12 feb 2026 21:17Din definition av förare avviker från normalt språkbruk, och jag tänker bortse från den.
De bilarna som började användas i juni 2025 hade inte någon säkerhetsförare i bilen.
Rent generellt, att man övervakar en automatisk maskin betyder inte att den inte är en automatisk maskin.
Men frågan är vad det egentligen gav att flytta säkerhetsföraren från förarsätet till passagerarsätet och kalla honom säkerhetsövervakare.
Skalbarheten för ett införande blir ju inte bättre och det blir svårare att ingripa vid problem och det blir en passagerarplats mindre att ta betalt för.
Enda fördelen är väl att det visuellt ser mer ”automatiskt ” ut.
Det hade väl varit bättre att låta säkerhetsföraren sitta kvar men bara döpa om honom till säkerhetsövervakare, det är ju också korrekt eftersom han inte kör utan bara övervakar i normalfallet.
Det är säkert mycket psykologi, men inte bara för att det ser bättre ut, på förarplats så kan föraren ingripa reflexmässigt, samt att vid interaktioner med andra trafikanter så blir det lättare att från utsidan begripa att det inte finns någon förare att bråka med.
Det är definitivt inte en passagerare, eftersom en passagerare aldrig kör, och inte behöver ett körkort.
Det är inte min definition. Det är branschstandard att kalla en person vars syfte är att garantera säkerheten för säkerhetsförare. Även lagstiftare änvänder termen "safety driver" (till exempel i Kalifornien). Det är vedertaget bland journalister. osv.Autonom skrev: ↑15 feb 2026 14:57Jag köper fortfarande inte din definition av förare.
Säkerhetspassagerarens har flera roller, men den enda roll i själva körningen är att kunna nödstoppa samt att kunna återkoppling observationer och incidenter. Det finns dock ett känt fall tidigt i testperioden (då med FSD V13-baserad mjukvara) där man hamnade i ett så krångligt fall (bilen gjorde i sig inte något specifikt fel, men den blev stående att vänta för länge när den skulle göra en vänstersväng in till Terry Black's BBQs ganska fullproppade parkering i Austin) att support begärde (under supportsamtalet med taxikunden) att säkerhetspassageraren flyttade sig till förarplats och körde bilen manuellt för att komma ur denna pinsamma situation.
Här är en 3 månader gammal rekryterings-presentation av Ashok Elluswamy som förklarar de tekniska utmaningarna i FSD för potentiella utvecklare:
Den håller sig på en sådan nivå¨att den inte avslöjar för mycket av Teslas hemligheter (men det finns folk som ganska lyckosamt lägger pussel och har upptäckt en hel del), men den visar tydligt varför Tesla valt en annan väg framåt än Waymo.