Det var så Tesla själva motiverade det ja. Ren propaganda. Det kan ju omöjligen bli sämre av mer information.taliz skrev: ↑29 apr 2024 08:36
Det skapas tyvärr många "alternativa sanningar" i Tesla-bubblan. Fake news helt enkelt.
Moderator: Redaktion
Det var så Tesla själva motiverade det ja. Ren propaganda. Det kan ju omöjligen bli sämre av mer information.taliz skrev: ↑29 apr 2024 08:36
Man behöver ingen PhD i signalbehandling eller ML för att konstatera att de flesta tillverkare har flera olika sensortyper för det här ändamålet och att de verkar kunna hantera det bra och har minst lika bra filhållnings-assistent än Tesla.holden skrev: ↑29 apr 2024 12:26Det här är ett ämne för doktorsavhandlingar och jag har verkligen ingen specialkunskap inom detta område, men på ett teoretiskt plan kan väl ”för mycket data” absolut vara ett problem eftersom det är ”rätt data” man vill dra sina slutsatser från. Om man har tio sensorer som mäter samma storhet som temperatur eller något annat är det ju inte konstigt att man kan synka ihop all data och närma sig sanningen den vägen, men om man mäter helt olika saker och ska basera besluten på all data i realtid är det ju en betydligt större utmaning.
Tycker nog den jämförelsen haltar på båda benen.spacecoin skrev: ↑29 apr 2024 12:35Man behöver ingen PhD i signalbehandling eller ML för att konstatera att de flesta tillverkare har flera olika sensortyper för det här ändamålet och att de verkar kunna hantera det bra och har minst lika bra filhållnings-assistent än Tesla.holden skrev: ↑29 apr 2024 12:26Det här är ett ämne för doktorsavhandlingar och jag har verkligen ingen specialkunskap inom detta område, men på ett teoretiskt plan kan väl ”för mycket data” absolut vara ett problem eftersom det är ”rätt data” man vill dra sina slutsatser från. Om man har tio sensorer som mäter samma storhet som temperatur eller något annat är det ju inte konstigt att man kan synka ihop all data och närma sig sanningen den vägen, men om man mäter helt olika saker och ska basera besluten på all data i realtid är det ju en betydligt större utmaning.
Om du ska mäta avståndet mellan två väggar hemma, är det mer precist att gissa från ett foto eller att använda en lasermätare?
Det är så en Lidar funkar. Fysisk avståndsmätning till en 3d-punkt. Fast man scannar hela scenen. Monokulär computer vision försöker att identifiera objekt och bedöma avstånd baserat på referens-storlekar genom klassificering ("väggen ser ut att vara ca 2.5 gånger takhöjden, som brukar vara 240cm") och objektens förhållanden i rummet och över tid (kameran/bilen rör sig). Det har skett stora framsteg inom både sensorutveckling och inom computer vision, men precisionen och konfidensen är inte i närheten ännu. Speciellt inte på natten då det är få referensobjekt i bilden.
Vilka bilar finns som använder Lidar för Park Assist?
Att farthållarens kortaste avstånd försvann och att högsta tillåtna hastighet sänktes är goda indikationer på att Vision är sämre än radar och att t.o.m. Tesla insett det.spacecoin skrev: ↑29 apr 2024 13:11Det är så en Lidar funkar. Fysisk avståndsmätning till en 3d-punkt. Fast man scannar hela scenen. Monokulär computer vision försöker att identifiera objekt och bedöma avstånd baserat på referens-storlekar genom klassificering ("väggen ser ut att vara ca 2.5 gånger takhöjden, som brukar vara 240cm") och objektens förhållanden i rummet och över tid (kameran/bilen rör sig). Det har skett stora framsteg inom både sensorutveckling och inom computer vision, men precisionen och konfidensen är inte i närheten ännu. Speciellt inte på natten då det är få referensobjekt i bilden.
Typ som att använda vision only park asssist på en parkering täckt av snö för att återknyta till trådämnet. Svårt att bedöma avstånd utan referenser då.
Lidar brukar vara framåtriktad för vanliga bilar och man brukar använda USS (ultraljud) + kamera för park assist. USS är ett annat sätt att fysiskt mäta avstånd till objekt med cm-precision.
Kan lika gärna vara goda indikationer på ett aktivt säkerhetstänkmikebike skrev: ↑29 apr 2024 13:41Att farthållarens kortaste avstånd försvann och att högsta tillåtna hastighet sänktes är goda indikationer på att Vision är sämre än radar och att t.o.m. Tesla insett det.spacecoin skrev: ↑29 apr 2024 13:11Det är så en Lidar funkar. Fysisk avståndsmätning till en 3d-punkt. Fast man scannar hela scenen. Monokulär computer vision försöker att identifiera objekt och bedöma avstånd baserat på referens-storlekar genom klassificering ("väggen ser ut att vara ca 2.5 gånger takhöjden, som brukar vara 240cm") och objektens förhållanden i rummet och över tid (kameran/bilen rör sig). Det har skett stora framsteg inom både sensorutveckling och inom computer vision, men precisionen och konfidensen är inte i närheten ännu. Speciellt inte på natten då det är få referensobjekt i bilden.
Typ som att använda vision only park asssist på en parkering täckt av snö för att återknyta till trådämnet. Svårt att bedöma avstånd utan referenser då.
Då hade det inte kommit exakt samtidigt som Vision.flamman skrev: ↑29 apr 2024 14:33Kan lika gärna vara goda indikationer på ett aktivt säkerhetstänkmikebike skrev: ↑29 apr 2024 13:41Att farthållarens kortaste avstånd försvann och att högsta tillåtna hastighet sänktes är goda indikationer på att Vision är sämre än radar och att t.o.m. Tesla insett det.spacecoin skrev: ↑29 apr 2024 13:11Det är så en Lidar funkar. Fysisk avståndsmätning till en 3d-punkt. Fast man scannar hela scenen. Monokulär computer vision försöker att identifiera objekt och bedöma avstånd baserat på referens-storlekar genom klassificering ("väggen ser ut att vara ca 2.5 gånger takhöjden, som brukar vara 240cm") och objektens förhållanden i rummet och över tid (kameran/bilen rör sig). Det har skett stora framsteg inom både sensorutveckling och inom computer vision, men precisionen och konfidensen är inte i närheten ännu. Speciellt inte på natten då det är få referensobjekt i bilden.
Typ som att använda vision only park asssist på en parkering täckt av snö för att återknyta till trådämnet. Svårt att bedöma avstånd utan referenser då.
Varför ska man uppmana och stödja att köra för fort och ligga för nära bilen framför? Särskilt för ett supervised-system, bra och säkrare att tvinga och ge föraren mer tid på sig att reagera och ta över.
flamman skrev: ↑29 apr 2024 14:33Kan lika gärna vara goda indikationer på ett aktivt säkerhetstänkmikebike skrev: ↑29 apr 2024 13:41Att farthållarens kortaste avstånd försvann och att högsta tillåtna hastighet sänktes är goda indikationer på att Vision är sämre än radar och att t.o.m. Tesla insett det.spacecoin skrev: ↑29 apr 2024 13:11Det är så en Lidar funkar. Fysisk avståndsmätning till en 3d-punkt. Fast man scannar hela scenen. Monokulär computer vision försöker att identifiera objekt och bedöma avstånd baserat på referens-storlekar genom klassificering ("väggen ser ut att vara ca 2.5 gånger takhöjden, som brukar vara 240cm") och objektens förhållanden i rummet och över tid (kameran/bilen rör sig). Det har skett stora framsteg inom både sensorutveckling och inom computer vision, men precisionen och konfidensen är inte i närheten ännu. Speciellt inte på natten då det är få referensobjekt i bilden.
Typ som att använda vision only park asssist på en parkering täckt av snö för att återknyta till trådämnet. Svårt att bedöma avstånd utan referenser då.
Varför ska man uppmana och stödja att köra för fort och ligga för nära bilen framför? Särskilt för ett supervised-system, bra och säkrare att tvinga och ge föraren mer tid på sig att reagera och ta över.
Varför inte? Radar-baserad AP hade några år på nacken och utvecklades nog inte aktivt. Lättare att låta den koden helt vara och fokusera på TV-AP (Radar-AP var ju på väg mot EOL). Poängen är också lite att varken du eller jag vet.mikebike skrev: ↑29 apr 2024 14:56Då hade det inte kommit exakt samtidigt som Vision.flamman skrev: ↑29 apr 2024 14:33Kan lika gärna vara goda indikationer på ett aktivt säkerhetstänkmikebike skrev: ↑29 apr 2024 13:41Att farthållarens kortaste avstånd försvann och att högsta tillåtna hastighet sänktes är goda indikationer på att Vision är sämre än radar och att t.o.m. Tesla insett det.spacecoin skrev: ↑29 apr 2024 13:11Det är så en Lidar funkar. Fysisk avståndsmätning till en 3d-punkt. Fast man scannar hela scenen. Monokulär computer vision försöker att identifiera objekt och bedöma avstånd baserat på referens-storlekar genom klassificering ("väggen ser ut att vara ca 2.5 gånger takhöjden, som brukar vara 240cm") och objektens förhållanden i rummet och över tid (kameran/bilen rör sig). Det har skett stora framsteg inom både sensorutveckling och inom computer vision, men precisionen och konfidensen är inte i närheten ännu. Speciellt inte på natten då det är få referensobjekt i bilden.
Typ som att använda vision only park asssist på en parkering täckt av snö för att återknyta till trådämnet. Svårt att bedöma avstånd utan referenser då.
Varför ska man uppmana och stödja att köra för fort och ligga för nära bilen framför? Särskilt för ett supervised-system, bra och säkrare att tvinga och ge föraren mer tid på sig att reagera och ta över.
Varför ska Tesla nedsnackas i absurdum?Nicke Nyfiken skrev: ↑29 apr 2024 15:14flamman skrev: ↑29 apr 2024 14:33Kan lika gärna vara goda indikationer på ett aktivt säkerhetstänkmikebike skrev: ↑29 apr 2024 13:41Att farthållarens kortaste avstånd försvann och att högsta tillåtna hastighet sänktes är goda indikationer på att Vision är sämre än radar och att t.o.m. Tesla insett det.spacecoin skrev: ↑29 apr 2024 13:11Det är så en Lidar funkar. Fysisk avståndsmätning till en 3d-punkt. Fast man scannar hela scenen. Monokulär computer vision försöker att identifiera objekt och bedöma avstånd baserat på referens-storlekar genom klassificering ("väggen ser ut att vara ca 2.5 gånger takhöjden, som brukar vara 240cm") och objektens förhållanden i rummet och över tid (kameran/bilen rör sig). Det har skett stora framsteg inom både sensorutveckling och inom computer vision, men precisionen och konfidensen är inte i närheten ännu. Speciellt inte på natten då det är få referensobjekt i bilden.
Typ som att använda vision only park asssist på en parkering täckt av snö för att återknyta till trådämnet. Svårt att bedöma avstånd utan referenser då.
Varför ska man uppmana och stödja att köra för fort och ligga för nära bilen framför? Särskilt för ett supervised-system, bra och säkrare att tvinga och ge föraren mer tid på sig att reagera och ta över.
Varför ska Teslas usla system försvaras i absurdum?
Med radar och avstånd 1 låg man lika långt bakom som på steg 3 med Tesla Vision. T.o.m. avstånd 7 med Tesla Vision är för nära ibland. Anstånd 7 med radar var betydligt längre bakom.
Så nått "aktivt säkerhetstänk" är det inte tal om.
Att hastigheten sänktes från 150 till 130 när radarn togs bort var bara en bekräftelse på att Tesla redan från början var medvetna om att systemet var sämre. Det höjdes sedan till 140 km/h när de låtit kunderna vara försökskaniner ett tag.
Hade det varit tal om "aktivt säkerhetstänk" så hade man sänkt hastigheten även på bilarna som fick köra vidare med radar.
Kan du dela något verifierat bevis för detta påstående, eller är det din subjektiva uppfattning?Nicke Nyfiken skrev:Med radar och avstånd 1 låg man lika långt bakom som på steg 3 med Tesla Vision. T.o.m. avstånd 7 med Tesla Vision är för nära ibland. Anstånd 7 med radar var betydligt längre bakom.
De ska nedsnackas när de förtjänar det.flamman skrev: ↑29 apr 2024 15:24Varför ska Tesla nedsnackas i absurdum?Nicke Nyfiken skrev: ↑29 apr 2024 15:14flamman skrev: ↑29 apr 2024 14:33Kan lika gärna vara goda indikationer på ett aktivt säkerhetstänkmikebike skrev: ↑29 apr 2024 13:41Att farthållarens kortaste avstånd försvann och att högsta tillåtna hastighet sänktes är goda indikationer på att Vision är sämre än radar och att t.o.m. Tesla insett det.spacecoin skrev: ↑29 apr 2024 13:11
Det är så en Lidar funkar. Fysisk avståndsmätning till en 3d-punkt. Fast man scannar hela scenen. Monokulär computer vision försöker att identifiera objekt och bedöma avstånd baserat på referens-storlekar genom klassificering ("väggen ser ut att vara ca 2.5 gånger takhöjden, som brukar vara 240cm") och objektens förhållanden i rummet och över tid (kameran/bilen rör sig). Det har skett stora framsteg inom både sensorutveckling och inom computer vision, men precisionen och konfidensen är inte i närheten ännu. Speciellt inte på natten då det är få referensobjekt i bilden.
Typ som att använda vision only park asssist på en parkering täckt av snö för att återknyta till trådämnet. Svårt att bedöma avstånd utan referenser då.
Varför ska man uppmana och stödja att köra för fort och ligga för nära bilen framför? Särskilt för ett supervised-system, bra och säkrare att tvinga och ge föraren mer tid på sig att reagera och ta över.
Varför ska Teslas usla system försvaras i absurdum?
Med radar och avstånd 1 låg man lika långt bakom som på steg 3 med Tesla Vision. T.o.m. avstånd 7 med Tesla Vision är för nära ibland. Anstånd 7 med radar var betydligt längre bakom.
Så nått "aktivt säkerhetstänk" är det inte tal om.
Att hastigheten sänktes från 150 till 130 när radarn togs bort var bara en bekräftelse på att Tesla redan från början var medvetna om att systemet var sämre. Det höjdes sedan till 140 km/h när de låtit kunderna vara försökskaniner ett tag.
Hade det varit tal om "aktivt säkerhetstänk" så hade man sänkt hastigheten även på bilarna som fick köra vidare med radar.
Behöver inte använda ord som ”bekräftat sämre”, ”kunder försökskaniner”, ”usla system”.
TV-AP var precis som du är inne på en ny lösning så rimligt och säkrare att börja med lägre fart.
Helt och hållet min subjektiva uppfattning, precis som alla andra som skriver i ämnet.jpetters skrev: ↑29 apr 2024 15:34Kan du dela något verifierat bevis för detta påstående, eller är det din subjektiva uppfattning?Nicke Nyfiken skrev:Med radar och avstånd 1 låg man lika långt bakom som på steg 3 med Tesla Vision. T.o.m. avstånd 7 med Tesla Vision är för nära ibland. Anstånd 7 med radar var betydligt längre bakom.
För att det ÄR uselt? "Regnsensorn" fungerar fortfarande inte. Automatiska avbländningen är väl ok numera men det tog typ 4 år av oanvändbarhet först... Och så nu då "Tesla Vision". Varför inte testa in house i lugn och ro och släppa till betalande kunder när det fungerar bra?flamman skrev: ↑29 apr 2024 15:24Varför ska Tesla nedsnackas i absurdum?Nicke Nyfiken skrev: ↑29 apr 2024 15:14flamman skrev: ↑29 apr 2024 14:33Kan lika gärna vara goda indikationer på ett aktivt säkerhetstänkmikebike skrev: ↑29 apr 2024 13:41Att farthållarens kortaste avstånd försvann och att högsta tillåtna hastighet sänktes är goda indikationer på att Vision är sämre än radar och att t.o.m. Tesla insett det.spacecoin skrev: ↑29 apr 2024 13:11
Det är så en Lidar funkar. Fysisk avståndsmätning till en 3d-punkt. Fast man scannar hela scenen. Monokulär computer vision försöker att identifiera objekt och bedöma avstånd baserat på referens-storlekar genom klassificering ("väggen ser ut att vara ca 2.5 gånger takhöjden, som brukar vara 240cm") och objektens förhållanden i rummet och över tid (kameran/bilen rör sig). Det har skett stora framsteg inom både sensorutveckling och inom computer vision, men precisionen och konfidensen är inte i närheten ännu. Speciellt inte på natten då det är få referensobjekt i bilden.
Typ som att använda vision only park asssist på en parkering täckt av snö för att återknyta till trådämnet. Svårt att bedöma avstånd utan referenser då.
Varför ska man uppmana och stödja att köra för fort och ligga för nära bilen framför? Särskilt för ett supervised-system, bra och säkrare att tvinga och ge föraren mer tid på sig att reagera och ta över.
Varför ska Teslas usla system försvaras i absurdum?
Med radar och avstånd 1 låg man lika långt bakom som på steg 3 med Tesla Vision. T.o.m. avstånd 7 med Tesla Vision är för nära ibland. Anstånd 7 med radar var betydligt längre bakom.
Så nått "aktivt säkerhetstänk" är det inte tal om.
Att hastigheten sänktes från 150 till 130 när radarn togs bort var bara en bekräftelse på att Tesla redan från början var medvetna om att systemet var sämre. Det höjdes sedan till 140 km/h när de låtit kunderna vara försökskaniner ett tag.
Hade det varit tal om "aktivt säkerhetstänk" så hade man sänkt hastigheten även på bilarna som fick köra vidare med radar.
Behöver inte använda ord som ”bekräftat sämre”, ”kunder försökskaniner”, ”usla system”.
TV-AP var precis som du är inne på en ny lösning så rimligt och säkrare att börja med lägre fart.
Jag mätte aldrig tiden för de olika inställningarna när radarn var inkopplad, men med Vision inställd på läge 7 är avståndet 3 sekunder som längst. Vid nedsatt sikt (regn) är avståndet 2 sekunder och när bilen framför bromsar in så är avståndet 1 sekund eftersom Vision reagerar långsammare än vad den radarbaserade gjorde.jpetters skrev: ↑29 apr 2024 15:34Kan du dela något verifierat bevis för detta påstående, eller är det din subjektiva uppfattning?Nicke Nyfiken skrev:Med radar och avstånd 1 låg man lika långt bakom som på steg 3 med Tesla Vision. T.o.m. avstånd 7 med Tesla Vision är för nära ibland. Anstånd 7 med radar var betydligt längre bakom.
Bra, då är det klarlagt. Det lät som det var verifierade fakta.Nicke Nyfiken skrev:Helt och hållet min subjektiva uppfattning, precis som alla andra som skriver i ämnet.jpetters skrev: ↑29 apr 2024 15:34Kan du dela något verifierat bevis för detta påstående, eller är det din subjektiva uppfattning?Nicke Nyfiken skrev:Med radar och avstånd 1 låg man lika långt bakom som på steg 3 med Tesla Vision. T.o.m. avstånd 7 med Tesla Vision är för nära ibland. Anstånd 7 med radar var betydligt längre bakom.
Finns det något verifierat bevis för hur det förhåller sig tar jag gärna del av det.
Jaha. Där kom regn-sensorn också.Verdi_ skrev: ↑29 apr 2024 15:59För att det ÄR uselt? "Regnsensorn" fungerar fortfarande inte. Automatiska avbländningen är väl ok numera men det tog typ 4 år av oanvändbarhet först... Och så nu då "Tesla Vision". Varför inte testa in house i lugn och ro och släppa till betalande kunder när det fungerar bra?flamman skrev: ↑29 apr 2024 15:24Varför ska Tesla nedsnackas i absurdum?Nicke Nyfiken skrev: ↑29 apr 2024 15:14flamman skrev: ↑29 apr 2024 14:33Kan lika gärna vara goda indikationer på ett aktivt säkerhetstänk
Varför ska man uppmana och stödja att köra för fort och ligga för nära bilen framför? Särskilt för ett supervised-system, bra och säkrare att tvinga och ge föraren mer tid på sig att reagera och ta över.
Varför ska Teslas usla system försvaras i absurdum?
Med radar och avstånd 1 låg man lika långt bakom som på steg 3 med Tesla Vision. T.o.m. avstånd 7 med Tesla Vision är för nära ibland. Anstånd 7 med radar var betydligt längre bakom.
Så nått "aktivt säkerhetstänk" är det inte tal om.
Att hastigheten sänktes från 150 till 130 när radarn togs bort var bara en bekräftelse på att Tesla redan från början var medvetna om att systemet var sämre. Det höjdes sedan till 140 km/h när de låtit kunderna vara försökskaniner ett tag.
Hade det varit tal om "aktivt säkerhetstänk" så hade man sänkt hastigheten även på bilarna som fick köra vidare med radar.
Behöver inte använda ord som ”bekräftat sämre”, ”kunder försökskaniner”, ”usla system”.
TV-AP var precis som du är inne på en ny lösning så rimligt och säkrare att börja med lägre fart.
Varför skulle jag INTE dra upp "regnsensorn"?flamman skrev: ↑29 apr 2024 16:46Jaha. Där kom regn-sensorn också.Verdi_ skrev: ↑29 apr 2024 15:59För att det ÄR uselt? "Regnsensorn" fungerar fortfarande inte. Automatiska avbländningen är väl ok numera men det tog typ 4 år av oanvändbarhet först... Och så nu då "Tesla Vision". Varför inte testa in house i lugn och ro och släppa till betalande kunder när det fungerar bra?flamman skrev: ↑29 apr 2024 15:24Varför ska Tesla nedsnackas i absurdum?Nicke Nyfiken skrev: ↑29 apr 2024 15:14flamman skrev: ↑29 apr 2024 14:33
Kan lika gärna vara goda indikationer på ett aktivt säkerhetstänk
Varför ska man uppmana och stödja att köra för fort och ligga för nära bilen framför? Särskilt för ett supervised-system, bra och säkrare att tvinga och ge föraren mer tid på sig att reagera och ta över.
Varför ska Teslas usla system försvaras i absurdum?
Med radar och avstånd 1 låg man lika långt bakom som på steg 3 med Tesla Vision. T.o.m. avstånd 7 med Tesla Vision är för nära ibland. Anstånd 7 med radar var betydligt längre bakom.
Så nått "aktivt säkerhetstänk" är det inte tal om.
Att hastigheten sänktes från 150 till 130 när radarn togs bort var bara en bekräftelse på att Tesla redan från början var medvetna om att systemet var sämre. Det höjdes sedan till 140 km/h när de låtit kunderna vara försökskaniner ett tag.
Hade det varit tal om "aktivt säkerhetstänk" så hade man sänkt hastigheten även på bilarna som fick köra vidare med radar.
Behöver inte använda ord som ”bekräftat sämre”, ”kunder försökskaniner”, ”usla system”.
TV-AP var precis som du är inne på en ny lösning så rimligt och säkrare att börja med lägre fart.
Auto avbländning har funkat toppen för mig från dag 1 och blev ännu bättre och positiv överraskning när Matrix kom också.
Har bara haft TV-AP så har ingen referens till Radar-AP men det verkar som den hade (mer?) problem med spökbromsningar något jag själv knappt upplevt.
Det finns gott om doktorsavhandlingar på det här området, jag har läst ett par av dem. Det finns inget tvivel om att det är bättre med flera sensorer och att filtrera bort brus, drift med mera från sensorerna är inga konstigheter. Hade det varit bättre med enbart kameror så hade t ex flygplan inte haft radar, barometriska höjdmätare, gyron, acceleromtrar osv för att bestämma sin förflyttning och position i tillägg till gps.holden skrev: ↑29 apr 2024 12:26Det här är ett ämne för doktorsavhandlingar och jag har verkligen ingen specialkunskap inom detta område, men på ett teoretiskt plan kan väl ”för mycket data” absolut vara ett problem eftersom det är ”rätt data” man vill dra sina slutsatser från. Om man har tio sensorer som mäter samma storhet som temperatur eller något annat är det ju inte konstigt att man kan synka ihop all data och närma sig sanningen den vägen, men om man mäter helt olika saker och ska basera besluten på all data i realtid är det ju en betydligt större utmaning.
Det är ju just det dom INTE har. Finns ingen som håller filen så bra som Tesla. Tex när linjerna försvinner så tappar de flesta övriga helt kontrollen, medan Tesla klarar det utan problem.spacecoin skrev: ↑29 apr 2024 12:35Man behöver ingen PhD i signalbehandling eller ML för att konstatera att de flesta tillverkare har flera olika sensortyper för det här ändamålet och att de verkar kunna hantera det bra och har minst lika bra filhållnings-assistent än Tesla.holden skrev: ↑29 apr 2024 12:26Det här är ett ämne för doktorsavhandlingar och jag har verkligen ingen specialkunskap inom detta område, men på ett teoretiskt plan kan väl ”för mycket data” absolut vara ett problem eftersom det är ”rätt data” man vill dra sina slutsatser från. Om man har tio sensorer som mäter samma storhet som temperatur eller något annat är det ju inte konstigt att man kan synka ihop all data och närma sig sanningen den vägen, men om man mäter helt olika saker och ska basera besluten på all data i realtid är det ju en betydligt större utmaning.
Om du ska mäta avståndet mellan två väggar hemma, är det mer precist att gissa från ett foto eller att använda en lasermätare?
Radarn används naturligtvis inte för filhållningen utan för att mäta avstånd, det är väl rätt uppenbart?taliz skrev: ↑29 apr 2024 17:22Det är ju just det dom INTE har. Finns ingen som håller filen så bra som Tesla. Tex när linjerna försvinner så tappar de flesta övriga helt kontrollen, medan Tesla klarar det utan problem.spacecoin skrev: ↑29 apr 2024 12:35Man behöver ingen PhD i signalbehandling eller ML för att konstatera att de flesta tillverkare har flera olika sensortyper för det här ändamålet och att de verkar kunna hantera det bra och har minst lika bra filhållnings-assistent än Tesla.holden skrev: ↑29 apr 2024 12:26Det här är ett ämne för doktorsavhandlingar och jag har verkligen ingen specialkunskap inom detta område, men på ett teoretiskt plan kan väl ”för mycket data” absolut vara ett problem eftersom det är ”rätt data” man vill dra sina slutsatser från. Om man har tio sensorer som mäter samma storhet som temperatur eller något annat är det ju inte konstigt att man kan synka ihop all data och närma sig sanningen den vägen, men om man mäter helt olika saker och ska basera besluten på all data i realtid är det ju en betydligt större utmaning.
Om du ska mäta avståndet mellan två väggar hemma, är det mer precist att gissa från ett foto eller att använda en lasermätare?
Tesla använder lasermätare.
Övriga använder en sliten tumstock + måttband + lasermätare, och försöker sen gissa vad som är rätt.
"kunde inte märka" = subjektivt.jpetters skrev: ↑29 apr 2024 16:07Bra, då är det klarlagt. Det lät som det var verifierade fakta.Nicke Nyfiken skrev:Helt och hållet min subjektiva uppfattning, precis som alla andra som skriver i ämnet.jpetters skrev: ↑29 apr 2024 15:34Kan du dela något verifierat bevis för detta påstående, eller är det din subjektiva uppfattning?Nicke Nyfiken skrev:Med radar och avstånd 1 låg man lika långt bakom som på steg 3 med Tesla Vision. T.o.m. avstånd 7 med Tesla Vision är för nära ibland. Anstånd 7 med radar var betydligt längre bakom.
Finns det något verifierat bevis för hur det förhåller sig tar jag gärna del av det.
Stämmer inte med min (subjektiva) uppfattning i vilket fall. Jag körde min X med TV (uppdaterad med FSD datorn) och S med aktiv radar (EAP 2.5) parallellt under ett år ungefär och kunde inte märka någon direkt skillnad på avstånden bilarna höll med AP aktiv. Mer än att det bara gick att sänka till avstånd 2 på Xen.
Det blev inte heller någon märkbar skillnad när jag bytte gamla S (2.5) till S Plaid.