High fidelity park assist

Här diskuterar vi frågor som berör flera av Teslas produkter.

Moderator: Redaktion

Användarvisningsbild
Jaegaern
Teslaägare
Inlägg: 832
Blev medlem: 22 jul 2021 10:37

Re: High fidelity park assist

Inlägg av Jaegaern »

spacecoin skrev: 13 maj 2024 22:32
Jaegaern skrev: 13 maj 2024 21:22
spacecoin skrev: 29 apr 2024 11:24
holden skrev: 29 apr 2024 11:16
Om jag har fattat det hela rätt uppstår svårighet att veta vilken data som ska få prioritet vid motsägelser via olika typer av datakällor, exempelvis om radarn säger en sak och kamerorna något annat.
Det berodde på att radarn som Tesla använde hade på tok för dålig upplösning för användningsfallet. Har man signalkällor med bra signal/noise så är inte sensorfusion ett problem.

Här har du en modern radar:
https://www.continental-automotive.com/ ... rs640.html
Deras end-goal har alltid varit att köra bild in, utan andra sensorer.

Och enligt AP-teamet så har det varit oeffektivt att ha med fler sensorer innan de helt gick över till senaste arkitekturen. Att mocka fler sensorer drog ner hastigheten, vilket förmodligen var det absolut viktigaste för att komma närmre sitt end-goal så snabbt som möjligt.

Det här är från Teslas perspektiv, inte föraren.

Å andra sidan, som förare har jag dock inte riktigt förstått problemet förutom när det är dimma/grå himmel och AP säger "begränsad sikt". Det är urlarvigt. Men det händer 2 gånger per år. Annars fungerar AP precis lika bra som när jag köpte bilen, bättre i vissa fall då det frös på under nollgradigt och snökaos och radarn slutade ge data och AP avaktiverades. Nu funkar det mycket bättre under nätter med mycket snö runt nollan.
Det är ju helt självklart att det blir bättre och säkrare med en aktiv sensor-modalitet.

"Radar is an active and coherent sensing modality that operates at wavelengths about a thousand times longer than visible light. Important differences between radar and cameras are:

Active sensing means that radar provides illumination-independent operation
Coherence means that radar can provide a per-frame measurement of distance and motion (through the Doppler effect)

With such a long wavelength, angular resolution and accuracy are far lower than a camera for any reasonably sized sensor aperture
Bearing these qualities in mind, consider camera failure modes. These are scenarios where the output of a sensor fails to provide enough information for the controller to operate safely. Examples of this for cameras include:

* Total failure of a sensor caused by a rock strike or perhaps a hardware fault
* Inadequate illumination, nighttime driving and low reflectance
* Inclement weather conditions such as rain, snow, fog, and dirt on the lens
* High scene dynamic range (e.g. sun in frame, headlights) masking dim objects
* Changing scene dynamic range (e.g. entering/exiting tunnels, tree/building shadows)

Automotive radar can address these failure modes with an alternate sensing modality that provides:

* Different uncorrelated risk of sensor hardware failure
* Active scene illumination, not dependent on the time of day or sun angle, indifferent to the presence of the sun in the field of view
* Different weather phenomenology, which offers complementary strengths in inclement weather
* A much longer wavelength yields different and complementary object reflectances
* Direction measurement of range and motion that otherwise would have to be derived from context/multiple frames in the camera"

https://wayve.ai/thinking/introducing-r ... explained/
Jag sade aldrig emot det. Klart att man ser mer, om man har fler inputs.

Problemet med självkörning har sedan flera år passerat stadiet med att kunna se allt. Det har varit ett problem om vad man ska göra, snarare än se. Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.
Model Y LR vit/svart 2021
Model 3 RWD blå/svart 2022

Köp det mest uppenbara tillbehöret Tesla glömde till model Y https://etsy.me/3jlFpbV

Beställa lastgaller till grossistpris? Se mer här viewtopic.php?p=717298#p717298
backe
Inlägg: 1881
Blev medlem: 05 apr 2020 18:38

Re: High fidelity park assist

Inlägg av backe »

Jaegaern skrev: 14 maj 2024 08:03
spacecoin skrev: 13 maj 2024 22:32
Jaegaern skrev: 13 maj 2024 21:22
spacecoin skrev: 29 apr 2024 11:24
holden skrev: 29 apr 2024 11:16
Om jag har fattat det hela rätt uppstår svårighet att veta vilken data som ska få prioritet vid motsägelser via olika typer av datakällor, exempelvis om radarn säger en sak och kamerorna något annat.
Det berodde på att radarn som Tesla använde hade på tok för dålig upplösning för användningsfallet. Har man signalkällor med bra signal/noise så är inte sensorfusion ett problem.

Här har du en modern radar:
https://www.continental-automotive.com/ ... rs640.html
Deras end-goal har alltid varit att köra bild in, utan andra sensorer.

Och enligt AP-teamet så har det varit oeffektivt att ha med fler sensorer innan de helt gick över till senaste arkitekturen. Att mocka fler sensorer drog ner hastigheten, vilket förmodligen var det absolut viktigaste för att komma närmre sitt end-goal så snabbt som möjligt.

Det här är från Teslas perspektiv, inte föraren.

Å andra sidan, som förare har jag dock inte riktigt förstått problemet förutom när det är dimma/grå himmel och AP säger "begränsad sikt". Det är urlarvigt. Men det händer 2 gånger per år. Annars fungerar AP precis lika bra som när jag köpte bilen, bättre i vissa fall då det frös på under nollgradigt och snökaos och radarn slutade ge data och AP avaktiverades. Nu funkar det mycket bättre under nätter med mycket snö runt nollan.
Det är ju helt självklart att det blir bättre och säkrare med en aktiv sensor-modalitet.

"Radar is an active and coherent sensing modality that operates at wavelengths about a thousand times longer than visible light. Important differences between radar and cameras are:

Active sensing means that radar provides illumination-independent operation
Coherence means that radar can provide a per-frame measurement of distance and motion (through the Doppler effect)

With such a long wavelength, angular resolution and accuracy are far lower than a camera for any reasonably sized sensor aperture
Bearing these qualities in mind, consider camera failure modes. These are scenarios where the output of a sensor fails to provide enough information for the controller to operate safely. Examples of this for cameras include:

* Total failure of a sensor caused by a rock strike or perhaps a hardware fault
* Inadequate illumination, nighttime driving and low reflectance
* Inclement weather conditions such as rain, snow, fog, and dirt on the lens
* High scene dynamic range (e.g. sun in frame, headlights) masking dim objects
* Changing scene dynamic range (e.g. entering/exiting tunnels, tree/building shadows)

Automotive radar can address these failure modes with an alternate sensing modality that provides:

* Different uncorrelated risk of sensor hardware failure
* Active scene illumination, not dependent on the time of day or sun angle, indifferent to the presence of the sun in the field of view
* Different weather phenomenology, which offers complementary strengths in inclement weather
* A much longer wavelength yields different and complementary object reflectances
* Direction measurement of range and motion that otherwise would have to be derived from context/multiple frames in the camera"

https://wayve.ai/thinking/introducing-r ... explained/
Jag sade aldrig emot det. Klart att man ser mer, om man har fler inputs.

Problemet med självkörning har sedan flera år passerat stadiet med att kunna se allt. Det har varit ett problem om vad man ska göra, snarare än se. Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.
Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.
Vilka anser det och vad är "de flesta fall"?
Användarvisningsbild
mikebike
Teslaägare
Inlägg: 7680
Blev medlem: 06 okt 2020 12:24
Ort: Solna
Referralkod: ts.la/mikael72656

Re: High fidelity park assist

Inlägg av mikebike »

flamman skrev: 14 maj 2024 07:43
mikebike skrev: 14 maj 2024 07:22
Jaegaern skrev: 13 maj 2024 21:22
spacecoin skrev: 29 apr 2024 11:24
holden skrev: 29 apr 2024 11:16
Om jag har fattat det hela rätt uppstår svårighet att veta vilken data som ska få prioritet vid motsägelser via olika typer av datakällor, exempelvis om radarn säger en sak och kamerorna något annat.
Det berodde på att radarn som Tesla använde hade på tok för dålig upplösning för användningsfallet. Har man signalkällor med bra signal/noise så är inte sensorfusion ett problem.

Här har du en modern radar:
https://www.continental-automotive.com/ ... rs640.html
Deras end-goal har alltid varit att köra bild in, utan andra sensorer.

Och enligt AP-teamet så har det varit oeffektivt att ha med fler sensorer innan de helt gick över till senaste arkitekturen. Att mocka fler sensorer drog ner hastigheten, vilket förmodligen var det absolut viktigaste för att komma närmre sitt end-goal så snabbt som möjligt.

Det här är från Teslas perspektiv, inte föraren.



Å andra sidan, som förare har jag dock inte riktigt förstått problemet förutom när det är dimma/grå himmel och AP säger "begränsad sikt". Det är urlarvigt. Men det händer 2 gånger per år. Annars fungerar AP precis lika bra som när jag köpte bilen, bättre i vissa fall då det frös på under nollgradigt och snökaos och radarn slutade ge data och AP avaktiverades. Nu funkar det mycket bättre under nätter med mycket snö runt nollan.
Nej, för oss händer det upp till 10 gånger på en 40-milaresa och i Julas var farthållaren "otillgänglig" mer än halva resan. Under resterande tid höll bilen för kort avstånd, så i princip kunde/vågade jag inte använda farthållaren alls.
Att jämföra med radar som krånglar en gång vartannat år när det blötsnöar.

Sedan har vi alla fartsänkningar, ibland kommer en ruta upp som förklarar att det beror på begränsad sikt, ibland sänks hastigheten utan förklaring, som i tisdags när hastigheten sänktes 20 km/tim när vi kom ut ur en tunnel.
Alltså jag lider med dig och din bil… Sådär beter sig inte min bil så kan nog inte skyllas på ”avsaknad av radar” utan något annat. Känns som du fått ett måndagsexemplar. Vad säger Tesla om dina serviceärenden? Har du funderat på att involvera ARN?
Jag har haft bilen hos SC 4 gånger för detta. Anmält till ARN (på uppmaning från SC!) i september.

Innan radarn kopplades ur så sänkte bilen hastigheten i princip bara vid byggområdena för Förbifart Stockholm, vilket troligen berodde på konflikt mellan kartdata och omdragen E4.
Volvo PV 544 Special 1963

Tesla Model Y LR 2022. Midnight Silver.
Användarvisningsbild
Jaegaern
Teslaägare
Inlägg: 832
Blev medlem: 22 jul 2021 10:37

Re: High fidelity park assist

Inlägg av Jaegaern »

backe skrev: 14 maj 2024 08:07
Jaegaern skrev: 14 maj 2024 08:03
spacecoin skrev: 13 maj 2024 22:32
Jaegaern skrev: 13 maj 2024 21:22
spacecoin skrev: 29 apr 2024 11:24


Det berodde på att radarn som Tesla använde hade på tok för dålig upplösning för användningsfallet. Har man signalkällor med bra signal/noise så är inte sensorfusion ett problem.

Här har du en modern radar:
https://www.continental-automotive.com/ ... rs640.html
Deras end-goal har alltid varit att köra bild in, utan andra sensorer.

Och enligt AP-teamet så har det varit oeffektivt att ha med fler sensorer innan de helt gick över till senaste arkitekturen. Att mocka fler sensorer drog ner hastigheten, vilket förmodligen var det absolut viktigaste för att komma närmre sitt end-goal så snabbt som möjligt.

Det här är från Teslas perspektiv, inte föraren.

Å andra sidan, som förare har jag dock inte riktigt förstått problemet förutom när det är dimma/grå himmel och AP säger "begränsad sikt". Det är urlarvigt. Men det händer 2 gånger per år. Annars fungerar AP precis lika bra som när jag köpte bilen, bättre i vissa fall då det frös på under nollgradigt och snökaos och radarn slutade ge data och AP avaktiverades. Nu funkar det mycket bättre under nätter med mycket snö runt nollan.
Det är ju helt självklart att det blir bättre och säkrare med en aktiv sensor-modalitet.

"Radar is an active and coherent sensing modality that operates at wavelengths about a thousand times longer than visible light. Important differences between radar and cameras are:

Active sensing means that radar provides illumination-independent operation
Coherence means that radar can provide a per-frame measurement of distance and motion (through the Doppler effect)

With such a long wavelength, angular resolution and accuracy are far lower than a camera for any reasonably sized sensor aperture
Bearing these qualities in mind, consider camera failure modes. These are scenarios where the output of a sensor fails to provide enough information for the controller to operate safely. Examples of this for cameras include:

* Total failure of a sensor caused by a rock strike or perhaps a hardware fault
* Inadequate illumination, nighttime driving and low reflectance
* Inclement weather conditions such as rain, snow, fog, and dirt on the lens
* High scene dynamic range (e.g. sun in frame, headlights) masking dim objects
* Changing scene dynamic range (e.g. entering/exiting tunnels, tree/building shadows)

Automotive radar can address these failure modes with an alternate sensing modality that provides:

* Different uncorrelated risk of sensor hardware failure
* Active scene illumination, not dependent on the time of day or sun angle, indifferent to the presence of the sun in the field of view
* Different weather phenomenology, which offers complementary strengths in inclement weather
* A much longer wavelength yields different and complementary object reflectances
* Direction measurement of range and motion that otherwise would have to be derived from context/multiple frames in the camera"

https://wayve.ai/thinking/introducing-r ... explained/
Jag sade aldrig emot det. Klart att man ser mer, om man har fler inputs.

Problemet med självkörning har sedan flera år passerat stadiet med att kunna se allt. Det har varit ett problem om vad man ska göra, snarare än se. Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.
Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.
Vilka anser det och vad är "de flesta fall"?
Alla som är utanför bubblan där man smackar på alla möjliga sensorer och fortfarande programmerar beteeden specifikt. De kinesiska tillverkarna som är seriösa angående självkörning och även då Tesla, har gått vidare till det riktiga problemet, beslut och agerande till den värld man ser.

Man borde förstå ganska snabbt att man inte kan koda för så många unika händelser som det finns "på riktigt". Det måste ju läras in på annat sätt. Eller? Och hur lär du en bil från mänskliga förare, om alla sensorer som är med i de bilarna, även då måste vara med i all insamling..? Detta är nog det största hindret..

Min personliga åsikt är att fler av de "stora" företagen runt självkörning snart kommer nått sina lokala maximum kring när de inte längre klarar av att förbättra körningen med det sätt man gör idag. Då kommer man behöva ännu mer kapital och det kommer förmodligen riktas på företag som satsat på det mer affärsmässiga rätta från början.

Tiden får visa vem som har rätt eller fel, men det är lite intressant att det finns så många olika läger där man är "övertygad" om att det företag man "röstar för/står bakom", självklart har den bästa lösningen.
Model Y LR vit/svart 2021
Model 3 RWD blå/svart 2022

Köp det mest uppenbara tillbehöret Tesla glömde till model Y https://etsy.me/3jlFpbV

Beställa lastgaller till grossistpris? Se mer här viewtopic.php?p=717298#p717298
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6506
Blev medlem: 30 aug 2019 19:30

Re: High fidelity park assist

Inlägg av spacecoin »

Jaegaern skrev: 14 maj 2024 09:32
backe skrev: 14 maj 2024 08:07
Jaegaern skrev: 14 maj 2024 08:03
spacecoin skrev: 13 maj 2024 22:32
Jaegaern skrev: 13 maj 2024 21:22


Deras end-goal har alltid varit att köra bild in, utan andra sensorer.

Och enligt AP-teamet så har det varit oeffektivt att ha med fler sensorer innan de helt gick över till senaste arkitekturen. Att mocka fler sensorer drog ner hastigheten, vilket förmodligen var det absolut viktigaste för att komma närmre sitt end-goal så snabbt som möjligt.

Det här är från Teslas perspektiv, inte föraren.

Å andra sidan, som förare har jag dock inte riktigt förstått problemet förutom när det är dimma/grå himmel och AP säger "begränsad sikt". Det är urlarvigt. Men det händer 2 gånger per år. Annars fungerar AP precis lika bra som när jag köpte bilen, bättre i vissa fall då det frös på under nollgradigt och snökaos och radarn slutade ge data och AP avaktiverades. Nu funkar det mycket bättre under nätter med mycket snö runt nollan.
Det är ju helt självklart att det blir bättre och säkrare med en aktiv sensor-modalitet.

"Radar is an active and coherent sensing modality that operates at wavelengths about a thousand times longer than visible light. Important differences between radar and cameras are:

Active sensing means that radar provides illumination-independent operation
Coherence means that radar can provide a per-frame measurement of distance and motion (through the Doppler effect)

With such a long wavelength, angular resolution and accuracy are far lower than a camera for any reasonably sized sensor aperture
Bearing these qualities in mind, consider camera failure modes. These are scenarios where the output of a sensor fails to provide enough information for the controller to operate safely. Examples of this for cameras include:

* Total failure of a sensor caused by a rock strike or perhaps a hardware fault
* Inadequate illumination, nighttime driving and low reflectance
* Inclement weather conditions such as rain, snow, fog, and dirt on the lens
* High scene dynamic range (e.g. sun in frame, headlights) masking dim objects
* Changing scene dynamic range (e.g. entering/exiting tunnels, tree/building shadows)

Automotive radar can address these failure modes with an alternate sensing modality that provides:

* Different uncorrelated risk of sensor hardware failure
* Active scene illumination, not dependent on the time of day or sun angle, indifferent to the presence of the sun in the field of view
* Different weather phenomenology, which offers complementary strengths in inclement weather
* A much longer wavelength yields different and complementary object reflectances
* Direction measurement of range and motion that otherwise would have to be derived from context/multiple frames in the camera"

https://wayve.ai/thinking/introducing-r ... explained/
Jag sade aldrig emot det. Klart att man ser mer, om man har fler inputs.

Problemet med självkörning har sedan flera år passerat stadiet med att kunna se allt. Det har varit ett problem om vad man ska göra, snarare än se. Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.
Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.
Vilka anser det och vad är "de flesta fall"?
Alla som är utanför bubblan där man smackar på alla möjliga sensorer och fortfarande programmerar beteeden specifikt. De kinesiska tillverkarna som är seriösa angående självkörning och även då Tesla, har gått vidare till det riktiga problemet, beslut och agerande till den värld man ser.

Man borde förstå ganska snabbt att man inte kan koda för så många unika händelser som det finns "på riktigt". Det måste ju läras in på annat sätt. Eller? Och hur lär du en bil från mänskliga förare, om alla sensorer som är med i de bilarna, även då måste vara med i all insamling..? Detta är nog det största hindret..

Min personliga åsikt är att fler av de "stora" företagen runt självkörning snart kommer nått sina lokala maximum kring när de inte längre klarar av att förbättra körningen med det sätt man gör idag. Då kommer man behöva ännu mer kapital och det kommer förmodligen riktas på företag som satsat på det mer affärsmässiga rätta från början.

Tiden får visa vem som har rätt eller fel, men det är lite intressant att det finns så många olika läger där man är "övertygad" om att det företag man "röstar för/står bakom", självklart har den bästa lösningen.
När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Man hade förstått några av anledningarna till det om man läst texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Användarvisningsbild
Jaegaern
Teslaägare
Inlägg: 832
Blev medlem: 22 jul 2021 10:37

Re: High fidelity park assist

Inlägg av Jaegaern »

spacecoin skrev: 14 maj 2024 09:35
Jaegaern skrev: 14 maj 2024 09:32
backe skrev: 14 maj 2024 08:07
Jaegaern skrev: 14 maj 2024 08:03
spacecoin skrev: 13 maj 2024 22:32


Det är ju helt självklart att det blir bättre och säkrare med en aktiv sensor-modalitet.

"Radar is an active and coherent sensing modality that operates at wavelengths about a thousand times longer than visible light. Important differences between radar and cameras are:

Active sensing means that radar provides illumination-independent operation
Coherence means that radar can provide a per-frame measurement of distance and motion (through the Doppler effect)

With such a long wavelength, angular resolution and accuracy are far lower than a camera for any reasonably sized sensor aperture
Bearing these qualities in mind, consider camera failure modes. These are scenarios where the output of a sensor fails to provide enough information for the controller to operate safely. Examples of this for cameras include:

* Total failure of a sensor caused by a rock strike or perhaps a hardware fault
* Inadequate illumination, nighttime driving and low reflectance
* Inclement weather conditions such as rain, snow, fog, and dirt on the lens
* High scene dynamic range (e.g. sun in frame, headlights) masking dim objects
* Changing scene dynamic range (e.g. entering/exiting tunnels, tree/building shadows)

Automotive radar can address these failure modes with an alternate sensing modality that provides:

* Different uncorrelated risk of sensor hardware failure
* Active scene illumination, not dependent on the time of day or sun angle, indifferent to the presence of the sun in the field of view
* Different weather phenomenology, which offers complementary strengths in inclement weather
* A much longer wavelength yields different and complementary object reflectances
* Direction measurement of range and motion that otherwise would have to be derived from context/multiple frames in the camera"

https://wayve.ai/thinking/introducing-r ... explained/
Jag sade aldrig emot det. Klart att man ser mer, om man har fler inputs.

Problemet med självkörning har sedan flera år passerat stadiet med att kunna se allt. Det har varit ett problem om vad man ska göra, snarare än se. Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.
Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.
Vilka anser det och vad är "de flesta fall"?
Alla som är utanför bubblan där man smackar på alla möjliga sensorer och fortfarande programmerar beteeden specifikt. De kinesiska tillverkarna som är seriösa angående självkörning och även då Tesla, har gått vidare till det riktiga problemet, beslut och agerande till den värld man ser.

Man borde förstå ganska snabbt att man inte kan koda för så många unika händelser som det finns "på riktigt". Det måste ju läras in på annat sätt. Eller? Och hur lär du en bil från mänskliga förare, om alla sensorer som är med i de bilarna, även då måste vara med i all insamling..? Detta är nog det största hindret..

Min personliga åsikt är att fler av de "stora" företagen runt självkörning snart kommer nått sina lokala maximum kring när de inte längre klarar av att förbättra körningen med det sätt man gör idag. Då kommer man behöva ännu mer kapital och det kommer förmodligen riktas på företag som satsat på det mer affärsmässiga rätta från början.

Tiden får visa vem som har rätt eller fel, men det är lite intressant att det finns så många olika läger där man är "övertygad" om att det företag man "röstar för/står bakom", självklart har den bästa lösningen.
När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Du hade förstått några av anledningarna om du läste texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
Model Y LR vit/svart 2021
Model 3 RWD blå/svart 2022

Köp det mest uppenbara tillbehöret Tesla glömde till model Y https://etsy.me/3jlFpbV

Beställa lastgaller till grossistpris? Se mer här viewtopic.php?p=717298#p717298
backe
Inlägg: 1881
Blev medlem: 05 apr 2020 18:38

Re: High fidelity park assist

Inlägg av backe »

Jaegaern skrev: 14 maj 2024 09:52
spacecoin skrev: 14 maj 2024 09:35
Jaegaern skrev: 14 maj 2024 09:32
backe skrev: 14 maj 2024 08:07
Jaegaern skrev: 14 maj 2024 08:03


Jag sade aldrig emot det. Klart att man ser mer, om man har fler inputs.

Problemet med självkörning har sedan flera år passerat stadiet med att kunna se allt. Det har varit ett problem om vad man ska göra, snarare än se. Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.
Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.
Vilka anser det och vad är "de flesta fall"?
Alla som är utanför bubblan där man smackar på alla möjliga sensorer och fortfarande programmerar beteeden specifikt. De kinesiska tillverkarna som är seriösa angående självkörning och även då Tesla, har gått vidare till det riktiga problemet, beslut och agerande till den värld man ser.

Man borde förstå ganska snabbt att man inte kan koda för så många unika händelser som det finns "på riktigt". Det måste ju läras in på annat sätt. Eller? Och hur lär du en bil från mänskliga förare, om alla sensorer som är med i de bilarna, även då måste vara med i all insamling..? Detta är nog det största hindret..

Min personliga åsikt är att fler av de "stora" företagen runt självkörning snart kommer nått sina lokala maximum kring när de inte längre klarar av att förbättra körningen med det sätt man gör idag. Då kommer man behöva ännu mer kapital och det kommer förmodligen riktas på företag som satsat på det mer affärsmässiga rätta från början.

Tiden får visa vem som har rätt eller fel, men det är lite intressant att det finns så många olika läger där man är "övertygad" om att det företag man "röstar för/står bakom", självklart har den bästa lösningen.
När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Du hade förstått några av anledningarna om du läste texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..?
Om du och jag kör bil och vi blir bländade eller får en spricka så fäller vi ner solskydd, tar på solglasögon, kisar eller flyttar huvudet lite åt sidan så att vi kan se igen, den möjligheten har inte en kamera i bilen, då försvinner "synen".
Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
Som jag ser det så är det väl inget läger som går så hårt på sin tro som Tesla som dömer ut alla som inte går på Vision only(trots att man köper in både radar och lidar), många andra jobbar med Vision men även andra sensorer. Mobileye jobbar efter spåret att man ska kunna köra med Vision only och sen parallellt köra med radar + lidar (https://www.mobileye.com/technology/true-redundancy/) för att kunna undvika olyckor, en typ av redundancy. Jag säger inte att det är rätt väg heller, men man har åtminstone inte låst in sig på en sensor.

Mer om Mobileye Drive™ här.
https://www.mobileye.com/solutions/drive/
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6506
Blev medlem: 30 aug 2019 19:30

Re: High fidelity park assist

Inlägg av spacecoin »

Jaegaern skrev: 14 maj 2024 09:52
spacecoin skrev: 14 maj 2024 09:35
Jaegaern skrev: 14 maj 2024 09:32
backe skrev: 14 maj 2024 08:07
Jaegaern skrev: 14 maj 2024 08:03
Jag sade aldrig emot det. Klart att man ser mer, om man har fler inputs.

Problemet med självkörning har sedan flera år passerat stadiet med att kunna se allt. Det har varit ett problem om vad man ska göra, snarare än se. Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.
Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.
Vilka anser det och vad är "de flesta fall"?
Alla som är utanför bubblan där man smackar på alla möjliga sensorer och fortfarande programmerar beteeden specifikt. De kinesiska tillverkarna som är seriösa angående självkörning och även då Tesla, har gått vidare till det riktiga problemet, beslut och agerande till den värld man ser.

Man borde förstå ganska snabbt att man inte kan koda för så många unika händelser som det finns "på riktigt". Det måste ju läras in på annat sätt. Eller? Och hur lär du en bil från mänskliga förare, om alla sensorer som är med i de bilarna, även då måste vara med i all insamling..? Detta är nog det största hindret..

Min personliga åsikt är att fler av de "stora" företagen runt självkörning snart kommer nått sina lokala maximum kring när de inte längre klarar av att förbättra körningen med det sätt man gör idag. Då kommer man behöva ännu mer kapital och det kommer förmodligen riktas på företag som satsat på det mer affärsmässiga rätta från början.

Tiden får visa vem som har rätt eller fel, men det är lite intressant att det finns så många olika läger där man är "övertygad" om att det företag man "röstar för/står bakom", självklart har den bästa lösningen.
När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Du hade förstått några av anledningarna om du läste texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
1) Waymo använder 95% ML för sitt system. Det är bara trams att de inte har en lika avancerad approach som Tesla. De är bättre på allt skulle jag säga och minst 3-5 år före alla andra i väst i alla fall. Vad de gör är att de användar massor av metoder för att kompensera för de brister som finns i ML för att öka säkerheten. T ex regler runt ML, Hd-kartor, lidar och radar för fysisk exakt avståndsmätning under de flesta förhållanden (t ex rök på vägen). Någon som man inte kan göra med kameror under ens optimala förhållanden.

2) Man kan inte jämföra generativ AI inom t ex chatbots med autonoma fordon. Ingen dör eller skadas varje gång en LLM har fel som tur är. Det finns fundamentala gap och brister i många delar av dagens ML som gör att den inte är tillräckligt säker för säkerhetskritiska applikationer. Om du kan ge exempel på en enda ren-ML-lösning som är säkerhetskritisk (behöver inte vara tidskritisk) som är autonom så lägger jag mig direkt. Jag kan ge dig ett exempel på en enkel tillämpning är man inte har tagit bort människan ur loopen: Cancerdiagnostik med stillbilder. Varför tror du att det är så?

3) En autonom L4 behöver kunna hantera en punktering och andra systemfel på ett säkert sätt. Det handlar inte bara om sensing, utan det krävs massor av otrolig ingenjörskonst, redundans, testing och säkerhetstänkande för att få en bil att åka utan förare i motorvägsfart med lägre olycks- och dödsrisk än en människa vid ratten. Det finns bara ett företag som gör det idag (dock utan kunder hittills). Det är som att vissa tror att Waymo bara rullat tummarna sedan 2017 då de deployade ride-only utan säkerhetsförare.

4) Nej, hela världen håller inte med Tesla. Faktum är att ingen håller med Tesla om att det är troligt att man kan ta bort föraren med enbart ML och kameror det här årtiondet. Till och med Elon har sagt att varje extra "nia" i reliability är exponentiellt svårare än nästa, så hur kommer man från 5-50 miles per intervention till 30000+ miles? Om du hittar en trovärdig person som har sagt det går det här årtiondet med bara kameror så är det bara att du skickar en länk!

5) Det du kallar "lokalt maxima" är alltså en omskrivning för "systemet behöver en omdesign"? Hur många sådana tror du att Tesla behöver mellan dagens nivå och 30000+ miles per failure?
Senast redigerad av spacecoin, redigerad totalt 3 gång.
Maw
Teslaägare
Inlägg: 3344
Blev medlem: 18 nov 2020 06:35

Re: High fidelity park assist

Inlägg av Maw »

spacecoin skrev: 14 maj 2024 11:23
Jaegaern skrev: 14 maj 2024 09:52
spacecoin skrev: 14 maj 2024 09:35
Jaegaern skrev: 14 maj 2024 09:32
backe skrev: 14 maj 2024 08:07




Vilka anser det och vad är "de flesta fall"?
Alla som är utanför bubblan där man smackar på alla möjliga sensorer och fortfarande programmerar beteeden specifikt. De kinesiska tillverkarna som är seriösa angående självkörning och även då Tesla, har gått vidare till det riktiga problemet, beslut och agerande till den värld man ser.

Man borde förstå ganska snabbt att man inte kan koda för så många unika händelser som det finns "på riktigt". Det måste ju läras in på annat sätt. Eller? Och hur lär du en bil från mänskliga förare, om alla sensorer som är med i de bilarna, även då måste vara med i all insamling..? Detta är nog det största hindret..

Min personliga åsikt är att fler av de "stora" företagen runt självkörning snart kommer nått sina lokala maximum kring när de inte längre klarar av att förbättra körningen med det sätt man gör idag. Då kommer man behöva ännu mer kapital och det kommer förmodligen riktas på företag som satsat på det mer affärsmässiga rätta från början.

Tiden får visa vem som har rätt eller fel, men det är lite intressant att det finns så många olika läger där man är "övertygad" om att det företag man "röstar för/står bakom", självklart har den bästa lösningen.
När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Du hade förstått några av anledningarna om du läste texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
1) Waymo använder 95% ML för sitt system. Det är bara trams att de inte har en lika avancerad approach som Tesla. De är bättre på allt skulle jag säga och minst 3-5 år före alla andra i väst i alla fall. Vad de gör är att de användar massor av metoder för att kompensera för de brister som finns i ML för att öka säkerheten. T ex regler runt ML, Hd-kartor, lidar och radar för fysisk exakt avståndsmätning under de flesta förhållanden (t ex rök på vägen). Någon som man inte kan göra med kameror under ens optimala förhållanden.

2) Man kan inte jämföra generativ AI inom t ex chatbots med autonoma fordon. Ingen dör eller skadas varje gång en LLM har fel som tur är. Det finns fundamentala gap och brister i många delar av dagens ML som gör att den inte är tillräckligt säker för säkerhetskritiska applikationer. Om du kan ge exempel på en enda ren-ML-lösning som är säkerhetskritisk (behöver inte vara tidskritisk) som är autonom så lägger jag mig direkt. Jag kan ge dig ett exempel på en enkel tillämpning är man inte har tagit bort människan ur loopen: Cancerdiagnostik med stillbilder. Varför tror du att det är så?

3) En autonom L4 behöver kunna hantera en punktering och andra systemfel på ett säkert sätt. Det handlar inte bara om sensing, utan det krävs massor av otrolig ingenjörskonst, redundans, testing och säkerhetstänkande för att få en bil att åka utan förare i motorvägsfart med lägre olycks- och dödsrisk än en människa vid ratten.

4) Nej, hela världen håller inte med Tesla. Faktum är att ingen håller med Tesla om att det är troligt att man kan ta bort föraren med enbart ML och kameror det här årtiondet. Till och med Elon har sagt att varje extra "nia" i reliability är exponentiellt svårare än nästa, så hur kommer man från 5-5 miles per intervention till 30000+ miles? Om du hittar en trovärdig person som har sagt det går det här årtiondet med bara kameror så är det bara att du skickar en länk!
Off Topic, men jag är djupt imponerad av ditt tålamod när du orkar förklara för alla förståsigpåare med egna teorier och uppenbarligen total avsaknad av insikter i hur säkerhetskritiska tillämpningar behöver byggas upp 😊
Polestar 2 Launch Edition med acc boost -21
Model Y LR -22 (hos ex-frun)
Användarvisningsbild
Jaegaern
Teslaägare
Inlägg: 832
Blev medlem: 22 jul 2021 10:37

Re: High fidelity park assist

Inlägg av Jaegaern »

spacecoin skrev: 14 maj 2024 11:23
Jaegaern skrev: 14 maj 2024 09:52
spacecoin skrev: 14 maj 2024 09:35
Jaegaern skrev: 14 maj 2024 09:32
backe skrev: 14 maj 2024 08:07




Vilka anser det och vad är "de flesta fall"?
Alla som är utanför bubblan där man smackar på alla möjliga sensorer och fortfarande programmerar beteeden specifikt. De kinesiska tillverkarna som är seriösa angående självkörning och även då Tesla, har gått vidare till det riktiga problemet, beslut och agerande till den värld man ser.

Man borde förstå ganska snabbt att man inte kan koda för så många unika händelser som det finns "på riktigt". Det måste ju läras in på annat sätt. Eller? Och hur lär du en bil från mänskliga förare, om alla sensorer som är med i de bilarna, även då måste vara med i all insamling..? Detta är nog det största hindret..

Min personliga åsikt är att fler av de "stora" företagen runt självkörning snart kommer nått sina lokala maximum kring när de inte längre klarar av att förbättra körningen med det sätt man gör idag. Då kommer man behöva ännu mer kapital och det kommer förmodligen riktas på företag som satsat på det mer affärsmässiga rätta från början.

Tiden får visa vem som har rätt eller fel, men det är lite intressant att det finns så många olika läger där man är "övertygad" om att det företag man "röstar för/står bakom", självklart har den bästa lösningen.
När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Du hade förstått några av anledningarna om du läste texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
1) Waymo använder 95% ML för sitt system. Det är bara trams att de inte har en lika avancerad approach som Tesla. De är bättre på allt skulle jag säga och minst 3-5 år före alla andra i väst i alla fall. Vad de gör är att de användar massor av metoder för att kompensera för de brister som finns i ML för att öka säkerheten. T ex regler runt ML, Hd-kartor, lidar och radar för fysisk exakt avståndsmätning under de flesta förhållanden (t ex rök på vägen). Någon som man inte kan göra med kameror under ens optimala förhållanden.

2) Man kan inte jämföra generativ AI inom t ex chatbots med autonoma fordon. Ingen dör eller skadas varje gång en LLM har fel som tur är. Det finns fundamentala gap och brister i många delar av dagens ML som gör att den inte är tillräckligt säker för säkerhetskritiska applikationer. Om du kan ge exempel på en enda ren-ML-lösning som är säkerhetskritisk (behöver inte vara tidskritisk) som är autonom så lägger jag mig direkt. Jag kan ge dig ett exempel på en enkel tillämpning är man inte har tagit bort människan ur loopen: Cancerdiagnostik med stillbilder. Varför tror du att det är så?

3) En autonom L4 behöver kunna hantera en punktering och andra systemfel på ett säkert sätt. Det handlar inte bara om sensing, utan det krävs massor av otrolig ingenjörskonst, redundans, testing och säkerhetstänkande för att få en bil att åka utan förare i motorvägsfart med lägre olycks- och dödsrisk än en människa vid ratten. Det finns bara ett företag som gör det idag (dock utan kunder hittills). Det är som att vissa tror att Waymo bara rullat tummarna sedan 2017 då de deployade ride-only utan säkerhetsförare.

4) Nej, hela världen håller inte med Tesla. Faktum är att ingen håller med Tesla om att det är troligt att man kan ta bort föraren med enbart ML och kameror det här årtiondet. Till och med Elon har sagt att varje extra "nia" i reliability är exponentiellt svårare än nästa, så hur kommer man från 5-50 miles per intervention till 30000+ miles? Om du hittar en trovärdig person som har sagt det går det här årtiondet med bara kameror så är det bara att du skickar en länk!

5) Det du kallar "lokalt maxima" är alltså en omskrivning för "systemet behöver en omdesign"? Hur många sådana tror du att Tesla behöver mellan dagens nivå och 30000+ miles per failure?
Vi har skilda åsikter!

Det är oavsett mycket intressant att följa vad som händer! Var är vi om 3 år? :D
Model Y LR vit/svart 2021
Model 3 RWD blå/svart 2022

Köp det mest uppenbara tillbehöret Tesla glömde till model Y https://etsy.me/3jlFpbV

Beställa lastgaller till grossistpris? Se mer här viewtopic.php?p=717298#p717298
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6506
Blev medlem: 30 aug 2019 19:30

Re: High fidelity park assist

Inlägg av spacecoin »

Jaegaern skrev: 14 maj 2024 11:50
spacecoin skrev: 14 maj 2024 11:23
Jaegaern skrev: 14 maj 2024 09:52
spacecoin skrev: 14 maj 2024 09:35
Jaegaern skrev: 14 maj 2024 09:32


Alla som är utanför bubblan där man smackar på alla möjliga sensorer och fortfarande programmerar beteeden specifikt. De kinesiska tillverkarna som är seriösa angående självkörning och även då Tesla, har gått vidare till det riktiga problemet, beslut och agerande till den värld man ser.

Man borde förstå ganska snabbt att man inte kan koda för så många unika händelser som det finns "på riktigt". Det måste ju läras in på annat sätt. Eller? Och hur lär du en bil från mänskliga förare, om alla sensorer som är med i de bilarna, även då måste vara med i all insamling..? Detta är nog det största hindret..

Min personliga åsikt är att fler av de "stora" företagen runt självkörning snart kommer nått sina lokala maximum kring när de inte längre klarar av att förbättra körningen med det sätt man gör idag. Då kommer man behöva ännu mer kapital och det kommer förmodligen riktas på företag som satsat på det mer affärsmässiga rätta från början.

Tiden får visa vem som har rätt eller fel, men det är lite intressant att det finns så många olika läger där man är "övertygad" om att det företag man "röstar för/står bakom", självklart har den bästa lösningen.
När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Du hade förstått några av anledningarna om du läste texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
1) Waymo använder 95% ML för sitt system. Det är bara trams att de inte har en lika avancerad approach som Tesla. De är bättre på allt skulle jag säga och minst 3-5 år före alla andra i väst i alla fall. Vad de gör är att de användar massor av metoder för att kompensera för de brister som finns i ML för att öka säkerheten. T ex regler runt ML, Hd-kartor, lidar och radar för fysisk exakt avståndsmätning under de flesta förhållanden (t ex rök på vägen). Någon som man inte kan göra med kameror under ens optimala förhållanden.

2) Man kan inte jämföra generativ AI inom t ex chatbots med autonoma fordon. Ingen dör eller skadas varje gång en LLM har fel som tur är. Det finns fundamentala gap och brister i många delar av dagens ML som gör att den inte är tillräckligt säker för säkerhetskritiska applikationer. Om du kan ge exempel på en enda ren-ML-lösning som är säkerhetskritisk (behöver inte vara tidskritisk) som är autonom så lägger jag mig direkt. Jag kan ge dig ett exempel på en enkel tillämpning är man inte har tagit bort människan ur loopen: Cancerdiagnostik med stillbilder. Varför tror du att det är så?

3) En autonom L4 behöver kunna hantera en punktering och andra systemfel på ett säkert sätt. Det handlar inte bara om sensing, utan det krävs massor av otrolig ingenjörskonst, redundans, testing och säkerhetstänkande för att få en bil att åka utan förare i motorvägsfart med lägre olycks- och dödsrisk än en människa vid ratten. Det finns bara ett företag som gör det idag (dock utan kunder hittills). Det är som att vissa tror att Waymo bara rullat tummarna sedan 2017 då de deployade ride-only utan säkerhetsförare.

4) Nej, hela världen håller inte med Tesla. Faktum är att ingen håller med Tesla om att det är troligt att man kan ta bort föraren med enbart ML och kameror det här årtiondet. Till och med Elon har sagt att varje extra "nia" i reliability är exponentiellt svårare än nästa, så hur kommer man från 5-50 miles per intervention till 30000+ miles? Om du hittar en trovärdig person som har sagt det går det här årtiondet med bara kameror så är det bara att du skickar en länk!

5) Det du kallar "lokalt maxima" är alltså en omskrivning för "systemet behöver en omdesign"? Hur många sådana tror du att Tesla behöver mellan dagens nivå och 30000+ miles per failure?
Vi har skilda åsikter!

Det är oavsett mycket intressant att följa vad som händer! Var är vi om 3 år? :D
Ja det har vi. Men jag skulle inte säga att mina åsikter är åsikter. De är konsensus inom området.

Jag litar mer på experter än försäljare. Elon gör ren pumpning utan förankring i verkligeheten. Är det åtta år i rad av FSD klart om 6-12 månader nu?

James Douma är rent skadlig att lyssna på skulle jag säga för att han låter som han kan något. Han har inte haft ett rätt om FSD och det kanske beror på att han aldrig jobbat med ML, säkerhetskritiska applikationer, eller bilar... ..och har Tesla-aktier.

Var är vi om tre år? Ungefär på samma ställe skulle jag tro. Tesla har inga autonoma bilar som säljs, Inga förarlösa robotaxi och kommer inte att ta liability för körning i meningsfull omfattning.
Användarvisningsbild
Jaegaern
Teslaägare
Inlägg: 832
Blev medlem: 22 jul 2021 10:37

Re: High fidelity park assist

Inlägg av Jaegaern »

Maw skrev: 14 maj 2024 11:32
spacecoin skrev: 14 maj 2024 11:23
Jaegaern skrev: 14 maj 2024 09:52
spacecoin skrev: 14 maj 2024 09:35
Jaegaern skrev: 14 maj 2024 09:32


Alla som är utanför bubblan där man smackar på alla möjliga sensorer och fortfarande programmerar beteeden specifikt. De kinesiska tillverkarna som är seriösa angående självkörning och även då Tesla, har gått vidare till det riktiga problemet, beslut och agerande till den värld man ser.

Man borde förstå ganska snabbt att man inte kan koda för så många unika händelser som det finns "på riktigt". Det måste ju läras in på annat sätt. Eller? Och hur lär du en bil från mänskliga förare, om alla sensorer som är med i de bilarna, även då måste vara med i all insamling..? Detta är nog det största hindret..

Min personliga åsikt är att fler av de "stora" företagen runt självkörning snart kommer nått sina lokala maximum kring när de inte längre klarar av att förbättra körningen med det sätt man gör idag. Då kommer man behöva ännu mer kapital och det kommer förmodligen riktas på företag som satsat på det mer affärsmässiga rätta från början.

Tiden får visa vem som har rätt eller fel, men det är lite intressant att det finns så många olika läger där man är "övertygad" om att det företag man "röstar för/står bakom", självklart har den bästa lösningen.
När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Du hade förstått några av anledningarna om du läste texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
1) Waymo använder 95% ML för sitt system. Det är bara trams att de inte har en lika avancerad approach som Tesla. De är bättre på allt skulle jag säga och minst 3-5 år före alla andra i väst i alla fall. Vad de gör är att de användar massor av metoder för att kompensera för de brister som finns i ML för att öka säkerheten. T ex regler runt ML, Hd-kartor, lidar och radar för fysisk exakt avståndsmätning under de flesta förhållanden (t ex rök på vägen). Någon som man inte kan göra med kameror under ens optimala förhållanden.

2) Man kan inte jämföra generativ AI inom t ex chatbots med autonoma fordon. Ingen dör eller skadas varje gång en LLM har fel som tur är. Det finns fundamentala gap och brister i många delar av dagens ML som gör att den inte är tillräckligt säker för säkerhetskritiska applikationer. Om du kan ge exempel på en enda ren-ML-lösning som är säkerhetskritisk (behöver inte vara tidskritisk) som är autonom så lägger jag mig direkt. Jag kan ge dig ett exempel på en enkel tillämpning är man inte har tagit bort människan ur loopen: Cancerdiagnostik med stillbilder. Varför tror du att det är så?

3) En autonom L4 behöver kunna hantera en punktering och andra systemfel på ett säkert sätt. Det handlar inte bara om sensing, utan det krävs massor av otrolig ingenjörskonst, redundans, testing och säkerhetstänkande för att få en bil att åka utan förare i motorvägsfart med lägre olycks- och dödsrisk än en människa vid ratten.

4) Nej, hela världen håller inte med Tesla. Faktum är att ingen håller med Tesla om att det är troligt att man kan ta bort föraren med enbart ML och kameror det här årtiondet. Till och med Elon har sagt att varje extra "nia" i reliability är exponentiellt svårare än nästa, så hur kommer man från 5-5 miles per intervention till 30000+ miles? Om du hittar en trovärdig person som har sagt det går det här årtiondet med bara kameror så är det bara att du skickar en länk!
Off Topic, men jag är djupt imponerad av ditt tålamod när du orkar förklara för alla förståsigpåare med egna teorier och uppenbarligen total avsaknad av insikter i hur säkerhetskritiska tillämpningar behöver byggas upp 😊
Känner att ditt svar pekar lite på mig och mina tankar kring detta. Oavsett om det avser mig eller andra, tycker jag det är onödigt att kalla folk för "förståsigpåare med egna teorier" och "total avsaknad av insikter". Det är väl ett diskussionsforum?

Tesla och deras syn på självkörning är inte jättelångt bort från hur SpaceX gjort med uppskjutningar ställt mot hur "alla andra" designar sina system.
1: Inget kan gå fel. Kostnader är astronomiska.
2: Om det går fel löser vi det nästa gång, tills dess att systemet är så stabilt att det inte längre går fel. Kostnader är väldigt låga och man skjuter upp raket efter raket.

Vilket sätt hade du valt för 10 år sedan och vilket sätt hade du valt idag?
Model Y LR vit/svart 2021
Model 3 RWD blå/svart 2022

Köp det mest uppenbara tillbehöret Tesla glömde till model Y https://etsy.me/3jlFpbV

Beställa lastgaller till grossistpris? Se mer här viewtopic.php?p=717298#p717298
Användarvisningsbild
Jaegaern
Teslaägare
Inlägg: 832
Blev medlem: 22 jul 2021 10:37

Re: High fidelity park assist

Inlägg av Jaegaern »

backe skrev: 14 maj 2024 10:37
Jaegaern skrev: 14 maj 2024 09:52
spacecoin skrev: 14 maj 2024 09:35
Jaegaern skrev: 14 maj 2024 09:32
backe skrev: 14 maj 2024 08:07




Vilka anser det och vad är "de flesta fall"?
Alla som är utanför bubblan där man smackar på alla möjliga sensorer och fortfarande programmerar beteeden specifikt. De kinesiska tillverkarna som är seriösa angående självkörning och även då Tesla, har gått vidare till det riktiga problemet, beslut och agerande till den värld man ser.

Man borde förstå ganska snabbt att man inte kan koda för så många unika händelser som det finns "på riktigt". Det måste ju läras in på annat sätt. Eller? Och hur lär du en bil från mänskliga förare, om alla sensorer som är med i de bilarna, även då måste vara med i all insamling..? Detta är nog det största hindret..

Min personliga åsikt är att fler av de "stora" företagen runt självkörning snart kommer nått sina lokala maximum kring när de inte längre klarar av att förbättra körningen med det sätt man gör idag. Då kommer man behöva ännu mer kapital och det kommer förmodligen riktas på företag som satsat på det mer affärsmässiga rätta från början.

Tiden får visa vem som har rätt eller fel, men det är lite intressant att det finns så många olika läger där man är "övertygad" om att det företag man "röstar för/står bakom", självklart har den bästa lösningen.
När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Du hade förstått några av anledningarna om du läste texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..?
Om du och jag kör bil och vi blir bländade eller får en spricka så fäller vi ner solskydd, tar på solglasögon, kisar eller flyttar huvudet lite åt sidan så att vi kan se igen, den möjligheten har inte en kamera i bilen, då försvinner "synen".
Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
Som jag ser det så är det väl inget läger som går så hårt på sin tro som Tesla som dömer ut alla som inte går på Vision only(trots att man köper in både radar och lidar), många andra jobbar med Vision men även andra sensorer. Mobileye jobbar efter spåret att man ska kunna köra med Vision only och sen parallellt köra med radar + lidar (https://www.mobileye.com/technology/true-redundancy/) för att kunna undvika olyckor, en typ av redundancy. Jag säger inte att det är rätt väg heller, men man har åtminstone inte låst in sig på en sensor.

Mer om Mobileye Drive™ här.
https://www.mobileye.com/solutions/drive/
Ja då är MobilEye kanske vettiga i sina val. Vi får se.

Tesla har väl alltid gått stenhårt, sin väg. Klart de gör det nu också. Om det misslyckas totalt har de ju sig själva att skylla. Och Elon lovordar såklart sin approach.
Om du och jag kör bil och vi blir bländade eller får en spricka så fäller vi ner solskydd, tar på solglasögon, kisar eller flyttar huvudet lite åt sidan så att vi kan se igen, den möjligheten har inte en kamera i bilen, då försvinner "synen".
Det borde väl hända såpass sällan att det löses genom att svänga in till kanten och stanna? Jag har hört att någon fått en sten precis framför kamera en gång. Ytterst ovanligt och en riktig högoddsare.
Model Y LR vit/svart 2021
Model 3 RWD blå/svart 2022

Köp det mest uppenbara tillbehöret Tesla glömde till model Y https://etsy.me/3jlFpbV

Beställa lastgaller till grossistpris? Se mer här viewtopic.php?p=717298#p717298
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6506
Blev medlem: 30 aug 2019 19:30

Re: High fidelity park assist

Inlägg av spacecoin »

Jaegaern skrev: 14 maj 2024 12:16
Maw skrev: 14 maj 2024 11:32
spacecoin skrev: 14 maj 2024 11:23
Jaegaern skrev: 14 maj 2024 09:52
spacecoin skrev: 14 maj 2024 09:35


När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Du hade förstått några av anledningarna om du läste texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
1) Waymo använder 95% ML för sitt system. Det är bara trams att de inte har en lika avancerad approach som Tesla. De är bättre på allt skulle jag säga och minst 3-5 år före alla andra i väst i alla fall. Vad de gör är att de användar massor av metoder för att kompensera för de brister som finns i ML för att öka säkerheten. T ex regler runt ML, Hd-kartor, lidar och radar för fysisk exakt avståndsmätning under de flesta förhållanden (t ex rök på vägen). Någon som man inte kan göra med kameror under ens optimala förhållanden.

2) Man kan inte jämföra generativ AI inom t ex chatbots med autonoma fordon. Ingen dör eller skadas varje gång en LLM har fel som tur är. Det finns fundamentala gap och brister i många delar av dagens ML som gör att den inte är tillräckligt säker för säkerhetskritiska applikationer. Om du kan ge exempel på en enda ren-ML-lösning som är säkerhetskritisk (behöver inte vara tidskritisk) som är autonom så lägger jag mig direkt. Jag kan ge dig ett exempel på en enkel tillämpning är man inte har tagit bort människan ur loopen: Cancerdiagnostik med stillbilder. Varför tror du att det är så?

3) En autonom L4 behöver kunna hantera en punktering och andra systemfel på ett säkert sätt. Det handlar inte bara om sensing, utan det krävs massor av otrolig ingenjörskonst, redundans, testing och säkerhetstänkande för att få en bil att åka utan förare i motorvägsfart med lägre olycks- och dödsrisk än en människa vid ratten.

4) Nej, hela världen håller inte med Tesla. Faktum är att ingen håller med Tesla om att det är troligt att man kan ta bort föraren med enbart ML och kameror det här årtiondet. Till och med Elon har sagt att varje extra "nia" i reliability är exponentiellt svårare än nästa, så hur kommer man från 5-5 miles per intervention till 30000+ miles? Om du hittar en trovärdig person som har sagt det går det här årtiondet med bara kameror så är det bara att du skickar en länk!
Off Topic, men jag är djupt imponerad av ditt tålamod när du orkar förklara för alla förståsigpåare med egna teorier och uppenbarligen total avsaknad av insikter i hur säkerhetskritiska tillämpningar behöver byggas upp 😊
Känner att ditt svar pekar lite på mig och mina tankar kring detta. Oavsett om det avser mig eller andra, tycker jag det är onödigt att kalla folk för "förståsigpåare med egna teorier" och "total avsaknad av insikter". Det är väl ett diskussionsforum?

Tesla och deras syn på självkörning är inte jättelångt bort från hur SpaceX gjort med uppskjutningar ställt mot hur "alla andra" designar sina system.
1: Inget kan gå fel. Kostnader är astronomiska.
2: Om det går fel löser vi det nästa gång, tills dess att systemet är så stabilt att det inte längre går fel. Kostnader är väldigt låga och man skjuter upp raket efter raket.

Vilket sätt hade du valt för 10 år sedan och vilket sätt hade du valt idag?
Skillnaden mellan generellt autonoma bilar och att skjuta upp raketer med payload är att det ena är något man gjort i 70 år och det andra har vi inte en vetenskaplig väg till ännu. Trots att det är efter åtta år av att han SÅLT det till kunder som aldrig kommer att få det till sina bilar.

Elon är expert på att effektivisera, utmana status quo och ta enorma risker och han har gjort det enormt bra mestadels, men någon "raketforskning" är det inte att bygga en elbil eller att effektivisera tillverkning (pun intended). Till och med att landa raketer från omloppsbana gjordes inom DARPA i liten skala 10 år innan SpaceX gjorde det. DC-X tretti år innan det.

https://en.wikipedia.org/wiki/XS-1_(spacecraft)
https://en.wikipedia.org/wiki/McDonnell_Douglas_DC-X

Elon "disruptar" befintliga industrier med sin otroliga metod, men han har aldrig varit i frontlinjen när det gäller vetenskap skulle jag hävda. "Never put unsolved research problems in the middle of your roadmap" är ett tips jag skulle ge honom. Robotar och robotaxi är på en helt annan nivå än det hans företag levererat hittills.
Maw
Teslaägare
Inlägg: 3344
Blev medlem: 18 nov 2020 06:35

Re: High fidelity park assist

Inlägg av Maw »

Jaegaern skrev: 14 maj 2024 12:16
Maw skrev: 14 maj 2024 11:32
spacecoin skrev: 14 maj 2024 11:23
Jaegaern skrev: 14 maj 2024 09:52
spacecoin skrev: 14 maj 2024 09:35


När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Du hade förstått några av anledningarna om du läste texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
1) Waymo använder 95% ML för sitt system. Det är bara trams att de inte har en lika avancerad approach som Tesla. De är bättre på allt skulle jag säga och minst 3-5 år före alla andra i väst i alla fall. Vad de gör är att de användar massor av metoder för att kompensera för de brister som finns i ML för att öka säkerheten. T ex regler runt ML, Hd-kartor, lidar och radar för fysisk exakt avståndsmätning under de flesta förhållanden (t ex rök på vägen). Någon som man inte kan göra med kameror under ens optimala förhållanden.

2) Man kan inte jämföra generativ AI inom t ex chatbots med autonoma fordon. Ingen dör eller skadas varje gång en LLM har fel som tur är. Det finns fundamentala gap och brister i många delar av dagens ML som gör att den inte är tillräckligt säker för säkerhetskritiska applikationer. Om du kan ge exempel på en enda ren-ML-lösning som är säkerhetskritisk (behöver inte vara tidskritisk) som är autonom så lägger jag mig direkt. Jag kan ge dig ett exempel på en enkel tillämpning är man inte har tagit bort människan ur loopen: Cancerdiagnostik med stillbilder. Varför tror du att det är så?

3) En autonom L4 behöver kunna hantera en punktering och andra systemfel på ett säkert sätt. Det handlar inte bara om sensing, utan det krävs massor av otrolig ingenjörskonst, redundans, testing och säkerhetstänkande för att få en bil att åka utan förare i motorvägsfart med lägre olycks- och dödsrisk än en människa vid ratten.

4) Nej, hela världen håller inte med Tesla. Faktum är att ingen håller med Tesla om att det är troligt att man kan ta bort föraren med enbart ML och kameror det här årtiondet. Till och med Elon har sagt att varje extra "nia" i reliability är exponentiellt svårare än nästa, så hur kommer man från 5-5 miles per intervention till 30000+ miles? Om du hittar en trovärdig person som har sagt det går det här årtiondet med bara kameror så är det bara att du skickar en länk!
Off Topic, men jag är djupt imponerad av ditt tålamod när du orkar förklara för alla förståsigpåare med egna teorier och uppenbarligen total avsaknad av insikter i hur säkerhetskritiska tillämpningar behöver byggas upp 😊
Känner att ditt svar pekar lite på mig och mina tankar kring detta. Oavsett om det avser mig eller andra, tycker jag det är onödigt att kalla folk för "förståsigpåare med egna teorier" och "total avsaknad av insikter". Det är väl ett diskussionsforum?

Tesla och deras syn på självkörning är inte jättelångt bort från hur SpaceX gjort med uppskjutningar ställt mot hur "alla andra" designar sina system.
1: Inget kan gå fel. Kostnader är astronomiska.
2: Om det går fel löser vi det nästa gång, tills dess att systemet är så stabilt att det inte längre går fel. Kostnader är väldigt låga och man skjuter upp raket efter raket.

Vilket sätt hade du valt för 10 år sedan och vilket sätt hade du valt idag?
Eftersom jag inte vill vara en förståsigpåare så hasplar jag inte ur mig någon lösning på hur självkörning skulle lösts för 10 år sedan eller idag ;). Men eftersom jag har en hel del erfarenhet av mjukvaruutveckling för säkerhetskritiska system så inser jag att det inte går att klara riktig självkörning med ”Vision Only”, framförallt inte med så få kameror som Teslor har.
Polestar 2 Launch Edition med acc boost -21
Model Y LR -22 (hos ex-frun)
backe
Inlägg: 1881
Blev medlem: 05 apr 2020 18:38

Re: High fidelity park assist

Inlägg av backe »

Jaegaern skrev: 14 maj 2024 12:20
backe skrev: 14 maj 2024 10:37
Jaegaern skrev: 14 maj 2024 09:52
spacecoin skrev: 14 maj 2024 09:35
Jaegaern skrev: 14 maj 2024 09:32


Alla som är utanför bubblan där man smackar på alla möjliga sensorer och fortfarande programmerar beteeden specifikt. De kinesiska tillverkarna som är seriösa angående självkörning och även då Tesla, har gått vidare till det riktiga problemet, beslut och agerande till den värld man ser.

Man borde förstå ganska snabbt att man inte kan koda för så många unika händelser som det finns "på riktigt". Det måste ju läras in på annat sätt. Eller? Och hur lär du en bil från mänskliga förare, om alla sensorer som är med i de bilarna, även då måste vara med i all insamling..? Detta är nog det största hindret..

Min personliga åsikt är att fler av de "stora" företagen runt självkörning snart kommer nått sina lokala maximum kring när de inte längre klarar av att förbättra körningen med det sätt man gör idag. Då kommer man behöva ännu mer kapital och det kommer förmodligen riktas på företag som satsat på det mer affärsmässiga rätta från början.

Tiden får visa vem som har rätt eller fel, men det är lite intressant att det finns så många olika läger där man är "övertygad" om att det företag man "röstar för/står bakom", självklart har den bästa lösningen.
När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Du hade förstått några av anledningarna om du läste texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..?
Om du och jag kör bil och vi blir bländade eller får en spricka så fäller vi ner solskydd, tar på solglasögon, kisar eller flyttar huvudet lite åt sidan så att vi kan se igen, den möjligheten har inte en kamera i bilen, då försvinner "synen".
Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
Som jag ser det så är det väl inget läger som går så hårt på sin tro som Tesla som dömer ut alla som inte går på Vision only(trots att man köper in både radar och lidar), många andra jobbar med Vision men även andra sensorer. Mobileye jobbar efter spåret att man ska kunna köra med Vision only och sen parallellt köra med radar + lidar (https://www.mobileye.com/technology/true-redundancy/) för att kunna undvika olyckor, en typ av redundancy. Jag säger inte att det är rätt väg heller, men man har åtminstone inte låst in sig på en sensor.

Mer om Mobileye Drive™ här.
https://www.mobileye.com/solutions/drive/
Ja då är MobilEye kanske vettiga i sina val. Vi får se.

Tesla har väl alltid gått stenhårt, sin väg. Klart de gör det nu också. Om det misslyckas totalt har de ju sig själva att skylla. Och Elon lovordar såklart sin approach.
Om du och jag kör bil och vi blir bländade eller får en spricka så fäller vi ner solskydd, tar på solglasögon, kisar eller flyttar huvudet lite åt sidan så att vi kan se igen, den möjligheten har inte en kamera i bilen, då försvinner "synen".
Det borde väl hända såpass sällan att det löses genom att svänga in till kanten och stanna? Jag har hört att någon fått en sten precis framför kamera en gång. Ytterst ovanligt och en riktig högoddsare.
Eftersom jag inte haft FSD på min Tesla så vet jag inte säkert hur det påverkar, men dem varnade konstant för att kamerorna blev bländade.
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6506
Blev medlem: 30 aug 2019 19:30

Re: High fidelity park assist

Inlägg av spacecoin »

backe skrev: 14 maj 2024 12:49
Jaegaern skrev: 14 maj 2024 12:20
backe skrev: 14 maj 2024 10:37
Jaegaern skrev: 14 maj 2024 09:52
spacecoin skrev: 14 maj 2024 09:35


När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Du hade förstått några av anledningarna om du läste texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..?
Om du och jag kör bil och vi blir bländade eller får en spricka så fäller vi ner solskydd, tar på solglasögon, kisar eller flyttar huvudet lite åt sidan så att vi kan se igen, den möjligheten har inte en kamera i bilen, då försvinner "synen".
Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
Som jag ser det så är det väl inget läger som går så hårt på sin tro som Tesla som dömer ut alla som inte går på Vision only(trots att man köper in både radar och lidar), många andra jobbar med Vision men även andra sensorer. Mobileye jobbar efter spåret att man ska kunna köra med Vision only och sen parallellt köra med radar + lidar (https://www.mobileye.com/technology/true-redundancy/) för att kunna undvika olyckor, en typ av redundancy. Jag säger inte att det är rätt väg heller, men man har åtminstone inte låst in sig på en sensor.

Mer om Mobileye Drive™ här.
https://www.mobileye.com/solutions/drive/
Ja då är MobilEye kanske vettiga i sina val. Vi får se.

Tesla har väl alltid gått stenhårt, sin väg. Klart de gör det nu också. Om det misslyckas totalt har de ju sig själva att skylla. Och Elon lovordar såklart sin approach.
Om du och jag kör bil och vi blir bländade eller får en spricka så fäller vi ner solskydd, tar på solglasögon, kisar eller flyttar huvudet lite åt sidan så att vi kan se igen, den möjligheten har inte en kamera i bilen, då försvinner "synen".
Det borde väl hända såpass sällan att det löses genom att svänga in till kanten och stanna? Jag har hört att någon fått en sten precis framför kamera en gång. Ytterst ovanligt och en riktig högoddsare.
Eftersom jag inte haft FSD på min Tesla så vet jag inte säkert hur det påverkar, men dem varnade konstant för att kamerorna blev bländade.
Som Wayve beskrev så finns det problem kamerors tillförlitlighet att se vissa typer av objekt i de fall man är bländad av sol eller mötande bilar på natten, eller om man kör ut ur en tunnel t ex.

Det fanns något klipp där AP körde in i en Buffel(!) som kom från höger där det var ett fält längs en landsväg där Teslan mötte en annan bil strax innan och kamerorna blev bländade. En Radar eller Lidar hade sett djuret 100 meter innan och stannat bilen. Det är helt enkelt en försäkring som kostar 3-5kkr.
Användarvisningsbild
holden
Teslaägare
Inlägg: 1138
Blev medlem: 30 sep 2020 15:42

Re: High fidelity park assist

Inlägg av holden »

Här inställer sig frågan vad man lägger i begreppet FSD, om valfritt klövvilt steppar upp på vägen när man kör i 100 knutar med solen i ögonen är man förmodligen död om man kör själv - förväntas FSD lösa detta dvs vara bättre än en mänsklig förare?
M3 P -24 svart/svart beställd
M3 LR -22 svart/svart
M3 LR -20 svart/svart - såld
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6506
Blev medlem: 30 aug 2019 19:30

Re: High fidelity park assist

Inlägg av spacecoin »

holden skrev: 14 maj 2024 13:34
Här inställer sig frågan vad man lägger i begreppet FSD, om valfritt klövvilt steppar upp på vägen när man kör i 100 knutar med solen i ögonen är man förmodligen död om man kör själv - förväntas FSD lösa detta dvs vara bättre än en mänsklig förare?
Det är en jättebra frågeställning tycker jag! Vissa olyckor är ju svåra att få bort. Nu var det ett djur på vägen länge i fallet jag beskrev, och det framgick inte särskilt väl av min beskrivning.

Min inställning är att dels så kommer samhället att ställa högre krav på en robot än vad vi gör på en människa ("det är mänskligt att fela"). Och dels att huvudsyftet måste vara att vägarna ska bli säkrare, inte att människan i förarsätet ska titta på film med bibelållen säkerhet som är baserat på ett snitt som innehåller bra, defensiva, förare men även distraherade, stressade, fyllon, 18-åringar och 80+are.

Mina 5 öre.

ps. En 55-65-åring är i genomsnitt ca tre gånger säkrare förare än en 25-35-åring trots sämre syn och sämre reflexer.
Användarvisningsbild
Jaegaern
Teslaägare
Inlägg: 832
Blev medlem: 22 jul 2021 10:37

Re: High fidelity park assist

Inlägg av Jaegaern »

backe skrev: 14 maj 2024 12:49
Jaegaern skrev: 14 maj 2024 12:20
backe skrev: 14 maj 2024 10:37
Jaegaern skrev: 14 maj 2024 09:52
spacecoin skrev: 14 maj 2024 09:35


När du säger självkörning så menar du alltså avancerad L2 som måste övervakas hela tiden och inte autonoma system...

Det finns anledningar till att det finns noll bilar med bara kameror som är autonoma och att det bara finns autonoma bilar med kameror + radar + lidar i dagsläget. Du hade förstått några av anledningarna om du läste texten jag postade ovan om radar.

Varje gång någon säger "lokala maximum" så tappar den 10% i trovärdighet hos mig. Det låter som James Douma eller Elon, och ingen av dem kan inte ett skit om autonoma bilar.

Inför man osäkerhet redan i perception-delen så blir det inte bättre i plannern. Computer vision har enligt alla(?) experter för många failure modes för autonomi (igen, se texten ovan).
Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..?
Om du och jag kör bil och vi blir bländade eller får en spricka så fäller vi ner solskydd, tar på solglasögon, kisar eller flyttar huvudet lite åt sidan så att vi kan se igen, den möjligheten har inte en kamera i bilen, då försvinner "synen".
Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
Som jag ser det så är det väl inget läger som går så hårt på sin tro som Tesla som dömer ut alla som inte går på Vision only(trots att man köper in både radar och lidar), många andra jobbar med Vision men även andra sensorer. Mobileye jobbar efter spåret att man ska kunna köra med Vision only och sen parallellt köra med radar + lidar (https://www.mobileye.com/technology/true-redundancy/) för att kunna undvika olyckor, en typ av redundancy. Jag säger inte att det är rätt väg heller, men man har åtminstone inte låst in sig på en sensor.

Mer om Mobileye Drive™ här.
https://www.mobileye.com/solutions/drive/
Ja då är MobilEye kanske vettiga i sina val. Vi får se.

Tesla har väl alltid gått stenhårt, sin väg. Klart de gör det nu också. Om det misslyckas totalt har de ju sig själva att skylla. Och Elon lovordar såklart sin approach.
Om du och jag kör bil och vi blir bländade eller får en spricka så fäller vi ner solskydd, tar på solglasögon, kisar eller flyttar huvudet lite åt sidan så att vi kan se igen, den möjligheten har inte en kamera i bilen, då försvinner "synen".
Det borde väl hända såpass sällan att det löses genom att svänga in till kanten och stanna? Jag har hört att någon fått en sten precis framför kamera en gång. Ytterst ovanligt och en riktig högoddsare.
Eftersom jag inte haft FSD på min Tesla så vet jag inte säkert hur det påverkar, men dem varnade konstant för att kamerorna blev bländade.
Ja det varnas det för ibland. Och att de är "övertäckta" när det är mörkt. Men hur ofta det är för att man ska vara extra försiktig eller att de är helt blinda är svårt att säga.
Model Y LR vit/svart 2021
Model 3 RWD blå/svart 2022

Köp det mest uppenbara tillbehöret Tesla glömde till model Y https://etsy.me/3jlFpbV

Beställa lastgaller till grossistpris? Se mer här viewtopic.php?p=717298#p717298
Användarvisningsbild
Jaegaern
Teslaägare
Inlägg: 832
Blev medlem: 22 jul 2021 10:37

Re: High fidelity park assist

Inlägg av Jaegaern »

holden skrev: 14 maj 2024 13:34
Här inställer sig frågan vad man lägger i begreppet FSD, om valfritt klövvilt steppar upp på vägen när man kör i 100 knutar med solen i ögonen är man förmodligen död om man kör själv - förväntas FSD lösa detta dvs vara bättre än en mänsklig förare?
Ja mycket bra frågeställning!

Det ligger väl lite i vad man anser FSD (Teslas eget begrepp då) bör klara av för att rullas ut. Jag tror de tycker det är okej, just nu. Annars hade man väl varit tvungen att använda något som är immun mot bländning.
Model Y LR vit/svart 2021
Model 3 RWD blå/svart 2022

Köp det mest uppenbara tillbehöret Tesla glömde till model Y https://etsy.me/3jlFpbV

Beställa lastgaller till grossistpris? Se mer här viewtopic.php?p=717298#p717298
Användarvisningsbild
Jaegaern
Teslaägare
Inlägg: 832
Blev medlem: 22 jul 2021 10:37

Re: High fidelity park assist

Inlägg av Jaegaern »

Maw skrev: 14 maj 2024 12:43
Jaegaern skrev: 14 maj 2024 12:16
Maw skrev: 14 maj 2024 11:32
spacecoin skrev: 14 maj 2024 11:23
Jaegaern skrev: 14 maj 2024 09:52


Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
1) Waymo använder 95% ML för sitt system. Det är bara trams att de inte har en lika avancerad approach som Tesla. De är bättre på allt skulle jag säga och minst 3-5 år före alla andra i väst i alla fall. Vad de gör är att de användar massor av metoder för att kompensera för de brister som finns i ML för att öka säkerheten. T ex regler runt ML, Hd-kartor, lidar och radar för fysisk exakt avståndsmätning under de flesta förhållanden (t ex rök på vägen). Någon som man inte kan göra med kameror under ens optimala förhållanden.

2) Man kan inte jämföra generativ AI inom t ex chatbots med autonoma fordon. Ingen dör eller skadas varje gång en LLM har fel som tur är. Det finns fundamentala gap och brister i många delar av dagens ML som gör att den inte är tillräckligt säker för säkerhetskritiska applikationer. Om du kan ge exempel på en enda ren-ML-lösning som är säkerhetskritisk (behöver inte vara tidskritisk) som är autonom så lägger jag mig direkt. Jag kan ge dig ett exempel på en enkel tillämpning är man inte har tagit bort människan ur loopen: Cancerdiagnostik med stillbilder. Varför tror du att det är så?

3) En autonom L4 behöver kunna hantera en punktering och andra systemfel på ett säkert sätt. Det handlar inte bara om sensing, utan det krävs massor av otrolig ingenjörskonst, redundans, testing och säkerhetstänkande för att få en bil att åka utan förare i motorvägsfart med lägre olycks- och dödsrisk än en människa vid ratten.

4) Nej, hela världen håller inte med Tesla. Faktum är att ingen håller med Tesla om att det är troligt att man kan ta bort föraren med enbart ML och kameror det här årtiondet. Till och med Elon har sagt att varje extra "nia" i reliability är exponentiellt svårare än nästa, så hur kommer man från 5-5 miles per intervention till 30000+ miles? Om du hittar en trovärdig person som har sagt det går det här årtiondet med bara kameror så är det bara att du skickar en länk!
Off Topic, men jag är djupt imponerad av ditt tålamod när du orkar förklara för alla förståsigpåare med egna teorier och uppenbarligen total avsaknad av insikter i hur säkerhetskritiska tillämpningar behöver byggas upp 😊
Känner att ditt svar pekar lite på mig och mina tankar kring detta. Oavsett om det avser mig eller andra, tycker jag det är onödigt att kalla folk för "förståsigpåare med egna teorier" och "total avsaknad av insikter". Det är väl ett diskussionsforum?

Tesla och deras syn på självkörning är inte jättelångt bort från hur SpaceX gjort med uppskjutningar ställt mot hur "alla andra" designar sina system.
1: Inget kan gå fel. Kostnader är astronomiska.
2: Om det går fel löser vi det nästa gång, tills dess att systemet är så stabilt att det inte längre går fel. Kostnader är väldigt låga och man skjuter upp raket efter raket.

Vilket sätt hade du valt för 10 år sedan och vilket sätt hade du valt idag?
Eftersom jag inte vill vara en förståsigpåare så hasplar jag inte ur mig någon lösning på hur självkörning skulle lösts för 10 år sedan eller idag ;). Men eftersom jag har en hel del erfarenhet av mjukvaruutveckling för säkerhetskritiska system så inser jag att det inte går att klara riktig självkörning med ”Vision Only”, framförallt inte med så få kameror som Teslor har.
Det respekterar jag. Men jag tror att det vi egentligen diskuterar i den här tråden är vad som menas med "självkörning". Aldrig krocka. Eller krocka mindre än en människa, eller allt däremellan.
Model Y LR vit/svart 2021
Model 3 RWD blå/svart 2022

Köp det mest uppenbara tillbehöret Tesla glömde till model Y https://etsy.me/3jlFpbV

Beställa lastgaller till grossistpris? Se mer här viewtopic.php?p=717298#p717298
Användarvisningsbild
Jaegaern
Teslaägare
Inlägg: 832
Blev medlem: 22 jul 2021 10:37

Re: High fidelity park assist

Inlägg av Jaegaern »

spacecoin skrev: 14 maj 2024 12:28
Jaegaern skrev: 14 maj 2024 12:16
Maw skrev: 14 maj 2024 11:32
spacecoin skrev: 14 maj 2024 11:23
Jaegaern skrev: 14 maj 2024 09:52


Jag menar grunden för det som är idag, L2, L3 och L4. Men kanske även L5. Det beror ju på hur bra det faktiskt bli och hur fort det går.
Likna det med hur språkmodeller för AI fungerar. Du kan inte sitta och berätta vad en AI ska skriva för varje fråga som ställs. Det är lite där man är idag med sensorberikade bilar, likt Waymo.

Och ditt anti "lokala maximum" tycker jag är onödigt. Välj andra ord för att beskriva det då?

Min förklaring är att om du kommer till "full självkörning" i 99% av ALLA fall, genom att bara koda fram en lösning för att du lätt hittar på vilka svängar en bil behöver hantera och vad som kan uppstå i de svängarna, kör bilen jäkligt bra. Den hade förmodligen klarat sig en mil eller två utan några som helst problem. Men den kan göra nästan vad som helst, nästan när som helst, för det är ju ändå 1% chans där bilen inte vet vad den gör och vad händer då?

Det avser jag med lokalt maximum. Det är lätt att imponera med, men fungerar inte i verkligheten. Då måste man byta sätt, för du kan inte bara jobba "hårdare".

Jag anser också att Douma och Elon verkar förstå det problem de tacklar och lyckas lägga fram det på ett sätt jag kan förstå och resonera kring. Det har inte de andra gjort på samma sätt. Och jag känner absolut viss wow-faktor när jag lyssnat på andra föredrag från andra bolag inom området. Men jag är inte riktigt såld hela vägen.

Angående "failure modes" med bara computer vision, tycker jag det är urlarvigt, faktiskt. Om jag får en fet jävla spricka i vindrutan kan jag antingen välja att fortsätta köra eller svänga av vägen och ringa bärgare. Hur skulle det vara annorlunda med en autonom bil..? Om man får en sten som krossar kameran, vet man ändå vad som hände 1 ms innan och kan enkelt slå på varningsblinkers och svänga in mot kanten, som man vet på ett ungefär var den är. Det är samma sak med punktering. Hur ska en radar lösa det problemet? Det kommer smälla, kränga mellan filerna och till slut (förhoppningsvis) svänga in till kanten och slå på varningsblinkers. Eller ska autonoma bilar i L5, ha larvband?

Jag tycker det är dumt att gå på för hårt utan att resonera sig fram när ingen som helst i hela världen vet vad som är rätt väg. Alla har ju olika stor övertygelse. Tiden får visa.
1) Waymo använder 95% ML för sitt system. Det är bara trams att de inte har en lika avancerad approach som Tesla. De är bättre på allt skulle jag säga och minst 3-5 år före alla andra i väst i alla fall. Vad de gör är att de användar massor av metoder för att kompensera för de brister som finns i ML för att öka säkerheten. T ex regler runt ML, Hd-kartor, lidar och radar för fysisk exakt avståndsmätning under de flesta förhållanden (t ex rök på vägen). Någon som man inte kan göra med kameror under ens optimala förhållanden.

2) Man kan inte jämföra generativ AI inom t ex chatbots med autonoma fordon. Ingen dör eller skadas varje gång en LLM har fel som tur är. Det finns fundamentala gap och brister i många delar av dagens ML som gör att den inte är tillräckligt säker för säkerhetskritiska applikationer. Om du kan ge exempel på en enda ren-ML-lösning som är säkerhetskritisk (behöver inte vara tidskritisk) som är autonom så lägger jag mig direkt. Jag kan ge dig ett exempel på en enkel tillämpning är man inte har tagit bort människan ur loopen: Cancerdiagnostik med stillbilder. Varför tror du att det är så?

3) En autonom L4 behöver kunna hantera en punktering och andra systemfel på ett säkert sätt. Det handlar inte bara om sensing, utan det krävs massor av otrolig ingenjörskonst, redundans, testing och säkerhetstänkande för att få en bil att åka utan förare i motorvägsfart med lägre olycks- och dödsrisk än en människa vid ratten.

4) Nej, hela världen håller inte med Tesla. Faktum är att ingen håller med Tesla om att det är troligt att man kan ta bort föraren med enbart ML och kameror det här årtiondet. Till och med Elon har sagt att varje extra "nia" i reliability är exponentiellt svårare än nästa, så hur kommer man från 5-5 miles per intervention till 30000+ miles? Om du hittar en trovärdig person som har sagt det går det här årtiondet med bara kameror så är det bara att du skickar en länk!
Off Topic, men jag är djupt imponerad av ditt tålamod när du orkar förklara för alla förståsigpåare med egna teorier och uppenbarligen total avsaknad av insikter i hur säkerhetskritiska tillämpningar behöver byggas upp 😊
Känner att ditt svar pekar lite på mig och mina tankar kring detta. Oavsett om det avser mig eller andra, tycker jag det är onödigt att kalla folk för "förståsigpåare med egna teorier" och "total avsaknad av insikter". Det är väl ett diskussionsforum?

Tesla och deras syn på självkörning är inte jättelångt bort från hur SpaceX gjort med uppskjutningar ställt mot hur "alla andra" designar sina system.
1: Inget kan gå fel. Kostnader är astronomiska.
2: Om det går fel löser vi det nästa gång, tills dess att systemet är så stabilt att det inte längre går fel. Kostnader är väldigt låga och man skjuter upp raket efter raket.

Vilket sätt hade du valt för 10 år sedan och vilket sätt hade du valt idag?
Skillnaden mellan generellt autonoma bilar och att skjuta upp raketer med payload är att det ena är något man gjort i 70 år och det andra har vi inte en vetenskaplig väg till ännu. Trots att det är efter åtta år av att han SÅLT det till kunder som aldrig kommer att få det till sina bilar.

Elon är expert på att effektivisera, utmana status quo och ta enorma risker och han har gjort det enormt bra mestadels, men någon "raketforskning" är det inte att bygga en elbil eller att effektivisera tillverkning (pun intended). Till och med att landa raketer från omloppsbana gjordes inom DARPA i liten skala 10 år innan SpaceX gjorde det. DC-X tretti år innan det.

https://en.wikipedia.org/wiki/XS-1_(spacecraft)
https://en.wikipedia.org/wiki/McDonnell_Douglas_DC-X

Elon "disruptar" befintliga industrier med sin otroliga metod, men han har aldrig varit i frontlinjen när det gäller vetenskap skulle jag hävda. "Never put unsolved research problems in the middle of your roadmap" är ett tips jag skulle ge honom. Robotar och robotaxi är på en helt annan nivå än det hans företag levererat hittills.
Ja metodiken är väl hans starka sida, som du skriver. Vi får se om de "löser" problemet med självkörning eller ej. Och vad det betyder i slutändan.
Model Y LR vit/svart 2021
Model 3 RWD blå/svart 2022

Köp det mest uppenbara tillbehöret Tesla glömde till model Y https://etsy.me/3jlFpbV

Beställa lastgaller till grossistpris? Se mer här viewtopic.php?p=717298#p717298
Användarvisningsbild
mikebike
Teslaägare
Inlägg: 7680
Blev medlem: 06 okt 2020 12:24
Ort: Solna
Referralkod: ts.la/mikael72656

Re: High fidelity park assist

Inlägg av mikebike »

Jaegaern skrev: 15 maj 2024 08:11
Maw skrev: 14 maj 2024 12:43
Jaegaern skrev: 14 maj 2024 12:16
Maw skrev: 14 maj 2024 11:32
spacecoin skrev: 14 maj 2024 11:23


1) Waymo använder 95% ML för sitt system. Det är bara trams att de inte har en lika avancerad approach som Tesla. De är bättre på allt skulle jag säga och minst 3-5 år före alla andra i väst i alla fall. Vad de gör är att de användar massor av metoder för att kompensera för de brister som finns i ML för att öka säkerheten. T ex regler runt ML, Hd-kartor, lidar och radar för fysisk exakt avståndsmätning under de flesta förhållanden (t ex rök på vägen). Någon som man inte kan göra med kameror under ens optimala förhållanden.

2) Man kan inte jämföra generativ AI inom t ex chatbots med autonoma fordon. Ingen dör eller skadas varje gång en LLM har fel som tur är. Det finns fundamentala gap och brister i många delar av dagens ML som gör att den inte är tillräckligt säker för säkerhetskritiska applikationer. Om du kan ge exempel på en enda ren-ML-lösning som är säkerhetskritisk (behöver inte vara tidskritisk) som är autonom så lägger jag mig direkt. Jag kan ge dig ett exempel på en enkel tillämpning är man inte har tagit bort människan ur loopen: Cancerdiagnostik med stillbilder. Varför tror du att det är så?

3) En autonom L4 behöver kunna hantera en punktering och andra systemfel på ett säkert sätt. Det handlar inte bara om sensing, utan det krävs massor av otrolig ingenjörskonst, redundans, testing och säkerhetstänkande för att få en bil att åka utan förare i motorvägsfart med lägre olycks- och dödsrisk än en människa vid ratten.

4) Nej, hela världen håller inte med Tesla. Faktum är att ingen håller med Tesla om att det är troligt att man kan ta bort föraren med enbart ML och kameror det här årtiondet. Till och med Elon har sagt att varje extra "nia" i reliability är exponentiellt svårare än nästa, så hur kommer man från 5-5 miles per intervention till 30000+ miles? Om du hittar en trovärdig person som har sagt det går det här årtiondet med bara kameror så är det bara att du skickar en länk!
Off Topic, men jag är djupt imponerad av ditt tålamod när du orkar förklara för alla förståsigpåare med egna teorier och uppenbarligen total avsaknad av insikter i hur säkerhetskritiska tillämpningar behöver byggas upp 😊
Känner att ditt svar pekar lite på mig och mina tankar kring detta. Oavsett om det avser mig eller andra, tycker jag det är onödigt att kalla folk för "förståsigpåare med egna teorier" och "total avsaknad av insikter". Det är väl ett diskussionsforum?

Tesla och deras syn på självkörning är inte jättelångt bort från hur SpaceX gjort med uppskjutningar ställt mot hur "alla andra" designar sina system.
1: Inget kan gå fel. Kostnader är astronomiska.
2: Om det går fel löser vi det nästa gång, tills dess att systemet är så stabilt att det inte längre går fel. Kostnader är väldigt låga och man skjuter upp raket efter raket.

Vilket sätt hade du valt för 10 år sedan och vilket sätt hade du valt idag?
Eftersom jag inte vill vara en förståsigpåare så hasplar jag inte ur mig någon lösning på hur självkörning skulle lösts för 10 år sedan eller idag ;). Men eftersom jag har en hel del erfarenhet av mjukvaruutveckling för säkerhetskritiska system så inser jag att det inte går att klara riktig självkörning med ”Vision Only”, framförallt inte med så få kameror som Teslor har.
Det respekterar jag. Men jag tror att det vi egentligen diskuterar i den här tråden är vad som menas med "självkörning". Aldrig krocka. Eller krocka mindre än en människa, eller allt däremellan.
Tråden handlar om park assist, eller borde i alla fall.
Det finns andra trådar om FSD.
Volvo PV 544 Special 1963

Tesla Model Y LR 2022. Midnight Silver.
Användarvisningsbild
Sfbones
Teslaägare
Inlägg: 196
Blev medlem: 22 nov 2023 19:32

Re: High fidelity park assist

Inlägg av Sfbones »

Jag fick 2024.14.6 igår i min Model 3 2019 (Intel Atom/FSD+HW3). Jag har sett det skrivas om att Intel infotainmentsystem faktiskt också har fått förbättrad visualisering (och med helskärmsläge).

https://www.notateslaapp.com/news/2023/ ... te-2024-14



Jag har dock inte det i min bil. Gäller det inte i Sverige? Vad är grejen?

Visualiseringen är dock mycket förbättrad, längre syn och mer objekt. Blinkers och bromsljus på bilmodeller, bättre flyt och mindre glitchar med objekt som hoppar omkring osv. Massiv förbättring.

Och är det meningen att nya Park Assist även ska fungera här, även om visualiseringen inte är förbättrad? Jag har bara gamla park assist där man får slumpmässigt någon ruta vald och att man behöver lägga i backen själv och så. Inte möjligt att välja ruta.
Skriv svar