Det är klart informationen behöver sammanvägas. Det är ju så en människa gör. Bearbetar information av olika typ.LarsL skrev:Du måste välja om de är motstridiga. Antar att det visat sig att radarn ger mer fel och därmed egentligen bara stör kamera beslutet. Då är det bättre attta bortdöm och få färre fel att hanteraoch slipper betala för delen.Fredrik j skrev:Varför välja?LarsL skrev:Det är väl lite samma problem med radar som lidar att det kan ge svår tolkade data. En kamerabild har ju mycket, mycket mer information än ekot från en radar oavsett våglängd.
FSD Beta är imponerande!
Moderator: Redaktion
Kategoriregler
Diskussioner om Elon Musks politiska aktiviteter hänvisas till: viewtopic.php?t=37057
Diskussioner om Elon Musks politiska aktiviteter hänvisas till: viewtopic.php?t=37057
Re: FSD Beta är imponerande!
Re: FSD Beta är imponerande!
FYI: om man nu skall ha människan som en referens (som du har) så är ju Teslas approach med fokus på vision mest likt (vi människor har som bekant varken radar eller lidar).Fredrik j skrev:Det är klart informationen behöver sammanvägas. Det är ju så en människa gör. Bearbetar information av olika typ.LarsL skrev:Du måste välja om de är motstridiga. Antar att det visat sig att radarn ger mer fel och därmed egentligen bara stör kamera beslutet. Då är det bättre attta bortdöm och få färre fel att hanteraoch slipper betala för delen.Fredrik j skrev:Varför välja?LarsL skrev:Det är väl lite samma problem med radar som lidar att det kan ge svår tolkade data. En kamerabild har ju mycket, mycket mer information än ekot från en radar oavsett våglängd.

NACP have Geely (Volvo, Polestar, Zeeker, Lynk&Co, Lotus, etc) in the list of war sponsors
https://nazk.gov.ua/en/the-nacp-has-add ... f-the-war/
Re: FSD Beta är imponerande!
Kan bara hålla med. Lite sugen på en ny M3 men ingen lust sälja nuvarande 2019 med FSD och behöva köpa FSD på nytt.Larofo skrev:Håller med, hade det varit så hade jag köpt.Fredrik j skrev:Helt obegripligt att tesla inte gör FSD kopplat till person om man byter bil innan självkörande funktionerna rullas ut.
/Henric
Tesla model 3 LR+ AWD, FSD (HW3), midnight silver metallic, svart interiör, 18 tum hjul. Uttagen 2019-05-24. Såld 2022-08-09
Tesla Model 3 Performance, röd, vit interiör. Beställd 2022-04-04, Levererad 2022-08-31
Tesla Model 3 Performance, röd, vit interiör. Beställd 2022-04-04, Levererad 2022-08-31
Re: FSD Beta är imponerande!
Titanium S75D, svarta NG, svart alcantara, autopilot 2.0, air suspension
Re: FSD Beta är imponerande!
Några saker som hände på väg till skolan i fredags (det är 1250m körning)
1) Väg ombedd med orange skylt, massor med koner visas runt en lastbil i displayen. Hade bilen bara stannat här med FSD eller hade den fattat till slut att den inte stod bakom en lastbil?
2) Taxi parkerad mot färdriktningen, bilen säger att den ser rumpan på en bil framför. Igen, hade FSD kört om?
3) Lastbil backar emot mig, jag stannar och försöker fatta vart den ska. Slutar med att jag får backa så den kan komma förbi och in på en liten sidoväg. Bilen ritar upp en lastbil som sakta kommer närmare... hade FSD fattat att den ska backa?
Kanske är det bara fel på visualiseringar på skärmen, men detta är tre tämligen enkla case för en förare, men jag gissar att det är knepigt för AI.
En annan skön, kör över Örbyleden när jag ska till skolan. Inte helt sällan åker det blåljusfordon där. Vad gör FSD när polisen kommer körandes mot rött? Kameran ser ju sjukt dåligt åt sidorna?
En till skön, när man åker till ÅVC högdalen så är det flervägsstopp. Hur fasen ska bilen veta vem som kör först då? På videos från USA ser man att det funkar bra, men på vissa korsningar är det ju stopp från alla håll, andra bara stopp från ditt håll. Lär bli en utmaning.
Sista sköna. Kraftigt skymd korsning ute I Tyresö (Lindalen). Stoppskylt, men man ser noll. Tekniken är att glida långsamt ut efter stopplinjen, tills man ser tillräckligt. Hur gör FSD riskbedömningen sikt kontra få en annan bil rakt in i fronten?
Jag älskar FSD och jag sa redan när AP1 kom att det jag vill ha är FSD för motorväg då det är där jag blir uttråkad när jag kör. Men jag tror det dröjer tills det funkar vettigt i mer komplex miljö
1) Väg ombedd med orange skylt, massor med koner visas runt en lastbil i displayen. Hade bilen bara stannat här med FSD eller hade den fattat till slut att den inte stod bakom en lastbil?
2) Taxi parkerad mot färdriktningen, bilen säger att den ser rumpan på en bil framför. Igen, hade FSD kört om?
3) Lastbil backar emot mig, jag stannar och försöker fatta vart den ska. Slutar med att jag får backa så den kan komma förbi och in på en liten sidoväg. Bilen ritar upp en lastbil som sakta kommer närmare... hade FSD fattat att den ska backa?
Kanske är det bara fel på visualiseringar på skärmen, men detta är tre tämligen enkla case för en förare, men jag gissar att det är knepigt för AI.
En annan skön, kör över Örbyleden när jag ska till skolan. Inte helt sällan åker det blåljusfordon där. Vad gör FSD när polisen kommer körandes mot rött? Kameran ser ju sjukt dåligt åt sidorna?
En till skön, när man åker till ÅVC högdalen så är det flervägsstopp. Hur fasen ska bilen veta vem som kör först då? På videos från USA ser man att det funkar bra, men på vissa korsningar är det ju stopp från alla håll, andra bara stopp från ditt håll. Lär bli en utmaning.
Sista sköna. Kraftigt skymd korsning ute I Tyresö (Lindalen). Stoppskylt, men man ser noll. Tekniken är att glida långsamt ut efter stopplinjen, tills man ser tillräckligt. Hur gör FSD riskbedömningen sikt kontra få en annan bil rakt in i fronten?
Jag älskar FSD och jag sa redan när AP1 kom att det jag vill ha är FSD för motorväg då det är där jag blir uttråkad när jag kör. Men jag tror det dröjer tills det funkar vettigt i mer komplex miljö
Polestar 2 LRSM
3P vit/vit, ibland
3P vit/vit, ibland
Re: FSD Beta är imponerande!
Även människor använder ju radar och andra hjälpmedel.martinot skrev:FYI: om man nu skall ha människan som en referens (som du har) så är ju Teslas approach med fokus på vision mest likt (vi människor har som bekant varken radar eller lidar).Fredrik j skrev:Det är klart informationen behöver sammanvägas. Det är ju så en människa gör. Bearbetar information av olika typ.LarsL skrev:Du måste välja om de är motstridiga. Antar att det visat sig att radarn ger mer fel och därmed egentligen bara stör kamera beslutet. Då är det bättre attta bortdöm och få färre fel att hanteraoch slipper betala för delen.Fredrik j skrev:Varför välja?LarsL skrev:Det är väl lite samma problem med radar som lidar att det kan ge svår tolkade data. En kamerabild har ju mycket, mycket mer information än ekot från en radar oavsett våglängd.
Re: FSD Beta är imponerande!
Fladdermöss och delfiner, tror jag, använder liknande funktioner med typ studsande signaler. Det finns en blind person som testar detta också med hjälp av klickljud. Men annars har vi ju ingen inbygg radar.Fredrik j skrev:Även människor använder ju radar och andra hjälpmedel.
Re: FSD Beta är imponerande!
Waymo är L4 eftersom det är begränsat till ett mindre område men man ska inte bry sig så mycket om definitioner. Det som spelar roll är om det är en attraktiv produkt som konsumenter vill använda. Waymo är hittils krångligt eftersom man måste ansöka för att få tillgång till tjänsten och de har för få bilar så väntetiderna blir för långa. Här är en video:martinot skrev:Defintion/förtydligande: Med full AD avser jag (och de flesta, skall tilläggas) L4/L5.Jordad skrev:Waymo har redan ett förarlöst robotaxinätverk i kommersiell drift så de är först. Frågan är bara hur snabbt vidare utrullning kommer ske. Waymo bygger för tillfället en stor spökstad för att kunna göra mer kontrollerade tester.martinot skrev:Däremot så kan jag garantera att full AD kommer. Det är det inget tvivel om (bara en fråga om hur många år, och efter hur många miljarder i investeringar).
När full AD är här, oavsett vem som blir först (kan vara många aktörer) så ser jag ingen logik i att taxi inte skulle använda sig av den tekniken.
Cruise ska lanseras i San Fransisco i närtid och de blir troligen tvåa.
Tesla planerar att släppa mjukvaran till hundratusentals privata bilar och använda dem för ytterligare datainsamling. Kanske mer relevant än en spökstad.
Autonoma nätverk kommer bedömas utifrån tillgänglighet. Om några år kommer Tesla ha tillräckligt hög tillverkningskapacitet för att utan problem kunna etablera mängder med stora nätverk med hög tillgänglighet i takt med myndigheters godkännande.
Re: FSD Beta är imponerande!
Kolla youtubekanalen AI DRIVR. Ganska många klipp, så jobbig hänvisning, men finns redan bra exempel på hur den hanterar knepiga situationer. Beteendet att först stanna, sedan krypa fram för att få sikt och sedan köra när den vet att det går finns redan där.Remuz skrev:Några saker som hände på väg till skolan i fredags (det är 1250m körning)
1) Väg ombedd med orange skylt, massor med koner visas runt en lastbil i displayen. Hade bilen bara stannat här med FSD eller hade den fattat till slut att den inte stod bakom en lastbil?
2) Taxi parkerad mot färdriktningen, bilen säger att den ser rumpan på en bil framför. Igen, hade FSD kört om?
3) Lastbil backar emot mig, jag stannar och försöker fatta vart den ska. Slutar med att jag får backa så den kan komma förbi och in på en liten sidoväg. Bilen ritar upp en lastbil som sakta kommer närmare... hade FSD fattat att den ska backa?
Kanske är det bara fel på visualiseringar på skärmen, men detta är tre tämligen enkla case för en förare, men jag gissar att det är knepigt för AI.
En annan skön, kör över Örbyleden när jag ska till skolan. Inte helt sällan åker det blåljusfordon där. Vad gör FSD när polisen kommer körandes mot rött? Kameran ser ju sjukt dåligt åt sidorna?
En till skön, när man åker till ÅVC högdalen så är det flervägsstopp. Hur fasen ska bilen veta vem som kör först då? På videos från USA ser man att det funkar bra, men på vissa korsningar är det ju stopp från alla håll, andra bara stopp från ditt håll. Lär bli en utmaning.
Sista sköna. Kraftigt skymd korsning ute I Tyresö (Lindalen). Stoppskylt, men man ser noll. Tekniken är att glida långsamt ut efter stopplinjen, tills man ser tillräckligt. Hur gör FSD riskbedömningen sikt kontra få en annan bil rakt in i fronten?
Jag älskar FSD och jag sa redan när AP1 kom att det jag vill ha är FSD för motorväg då det är där jag blir uttråkad när jag kör. Men jag tror det dröjer tills det funkar vettigt i mer komplex miljö
En annan viktig information från hans klipp är hur snabbt den blivit bättre under betan.
ML-teknik med NN brukar innebära att en ny design snabbt blir bättre med ytterligare data och förfinad kalibrering. Men så småningom när man en platå där mer data etc inte ger mycket i ökad förmåga.
Tydligt att stacken vi alla har i bilarna nu nått platå och att stora förbättringar är svårt att uppnå. Det använder Spacecoin och några till för att linjärt extrapolera att det är evigheter kvar tills något kan bli FSD.
FSD-betan å sin sida har blivit raskt bättre enligt testarna. Och den visar inga tecken på att vara nära platå än trots att de som jag förstått det ännu inte fått in den temporala 4D-taggningen som är tänkt att lösa de tidsmässiga inkonsistenser som exempelvis ger våra nuvarande spökbromsningar. Det ska komma tillsammans med v9 som Elon twittrar om.
Ingen, inte ens FSD-betatestarna har med andra ord inblick i nivån vi snart har här. Det som gör mig exalterad är att det är nästa fundamentala rewrite efter vad vi alla varit impade av i nuvarande FSD-betan.
Tror det blir tyst på tvivlarna rätt snart. Men håller med om att Waymo och Cruise hinner först till vad som upplevs som L4 i sina taxitjänster. Definitionsfråga om det är riktig L4 eftersom de har aktiv övervakning av personal på distans som kan gripa in vid problem eller när bilarna hamnar i situationer de inte kan lösa på egen hand.
Tesla blir först till något som kan påminna om äkta L5 i privata bilar. Sen blir det år av debatt och förfining innan lagarna tillåter L5.
2021 3LR | Red Multi-Coat | Ultra White | XPEL Stealth | FSD
2017 X90D | Midnight Silver | Ultra White | XPEL Stealth | FSD
2017 X90D | Midnight Silver | Ultra White | XPEL Stealth | FSD
Re: FSD Beta är imponerande!
Nej vi får ju ta in informationen på en skärm. Scenariot där en människa inte kan se visuellt på grund av dålig sikt men istället får information från en radarskärm är ju inget nytt. Människan klarar ju av att sammanväga dessa två intryck. Varför skulle en AI vara sämre?LarsL skrev:Fladdermöss och delfiner, tror jag, använder liknande funktioner med typ studsande signaler. Det finns en blind person som testar detta också med hjälp av klickljud. Men annars har vi ju ingen inbygg radar.Fredrik j skrev:Även människor använder ju radar och andra hjälpmedel.
Det måste väl anses vara det vanligaste i dagens farkoster av alla slag? Olika system med styrkor och svagheter som samverkar. Man har ju t.ex. både backkamera och sensorer.
Re: FSD Beta är imponerande!
Fast vi måste inte ha en radar för att köra bil. Sedan processar vi inte radarbilden rått och fusionerar den samman med bilden från synapserna. Så även där haltar ditt argument.Fredrik j skrev:Nej vi får ju ta in informationen på en skärm. Scenariot där en människa inte kan se visuellt på grund av dålig sikt men istället får information från en radarskärm är ju inget nytt. Människan klarar ju av att sammanväga dessa två intryck. Varför skulle en AI vara sämre?LarsL skrev:Fladdermöss och delfiner, tror jag, använder liknande funktioner med typ studsande signaler. Det finns en blind person som testar detta också med hjälp av klickljud. Men annars har vi ju ingen inbygg radar.Fredrik j skrev:Även människor använder ju radar och andra hjälpmedel.
Det måste väl anses vara det vanligaste i dagens farkoster av alla slag? Olika system med styrkor och svagheter som samverkar. Man har ju t.ex. både backkamera och sensorer.
Jag hävdar att den mänskliga hjärnan inte alls har en liknande funktion som den Sensor Fusion som behövs i en AD-bil som skall processa flera typer av bilder som skiljer sig åt (kamerabilder, radarbilder, lidarbilder) för att slå samman de till en helhet.
Att ta in ett ultraljudsavstånd som våra backvarnare använder (är inte radarteknik som du hävdar) som en enda siffra är däremot inget problem för mjukvara eller maskininlärning. Det är en ytterst enkel sak med väldigt låg komplexitet.

NACP have Geely (Volvo, Polestar, Zeeker, Lynk&Co, Lotus, etc) in the list of war sponsors
https://nazk.gov.ua/en/the-nacp-has-add ... f-the-war/
Re: FSD Beta är imponerande!
Ingen aning vem som blir först (även om jag jobbat i branschen), men jag skulle hävda att Waymo idag inte är L4.Alfred skrev:Men håller med om att Waymo och Cruise hinner först till vad som upplevs som L4 i sina taxitjänster. Definitionsfråga om det är riktig L4 eftersom de har aktiv övervakning av personal på distans som kan gripa in vid problem eller när bilarna hamnar i situationer de inte kan lösa på egen hand.
Tesla blir först till något som kan påminna om äkta L5 i privata bilar. Sen blir det år av debatt och förfining innan lagarna tillåter L5.
Dels för den mänskliga övervakning som används (som du riktigt påpekar), och dels för att den förustätter att man scannat in allt med lidar eller annan teknik i förväg, samt att inga stora ändringar får lov att förekomma (nya byggen, vägarbeten, olyckor med omledningar, mm. kan riskera att ställa till det).

NACP have Geely (Volvo, Polestar, Zeeker, Lynk&Co, Lotus, etc) in the list of war sponsors
https://nazk.gov.ua/en/the-nacp-has-add ... f-the-war/
Re: FSD Beta är imponerande!
Nej, jag vet att backvarnare inte är radar och det skriver jag inte heller. Min poäng är att vi använder information från många håll när vi kör bil.martinot skrev:Fast vi måste inte ha en radar för att köra bil. Sedan processar vi inte radarbilden rått och fusionerar den samman med bilden från synapserna. Så även där haltar ditt argument.Fredrik j skrev:Nej vi får ju ta in informationen på en skärm. Scenariot där en människa inte kan se visuellt på grund av dålig sikt men istället får information från en radarskärm är ju inget nytt. Människan klarar ju av att sammanväga dessa två intryck. Varför skulle en AI vara sämre?
Det måste väl anses vara det vanligaste i dagens farkoster av alla slag? Olika system med styrkor och svagheter som samverkar. Man har ju t.ex. både backkamera och sensorer.
Jag hävdar att den mänskliga hjärnan inte alls har en liknande funktion som den Sensor Fusion som behövs i en AD-bil som skall processa flera typer av bilder som skiljer sig åt (kamerabilder, radarbilder, lidarbilder) för att slå samman de till en helhet.
Att ta in ett ultraljudsavstånd som våra backvarnare använder (är inte radarteknik som du hävdar) som en enda siffra är däremot inget problem för mjukvara eller maskininlärning. Det är en ytterst enkel sak med väldigt låg komplexitet.
Re: FSD Beta är imponerande!
Min poäng är att du inte behöver fusionera 3D-bilder i hjärnan med en siffra som en avståndsmätare med ultraljud ger (till skillnad från en 3D-bild från tex. en lidar, eller när du skall komplettera din modellerade 3D-bild och fusionera den med radarinformation som du byggt upp i en 3D-rymd). Enormt stor skillnad i komplexitet.Fredrik j skrev:Nej, jag vet att backvarnare inte är radar och det skriver jag inte heller. Min poäng är att vi använder information från många håll när vi kör bil.martinot skrev:Fast vi måste inte ha en radar för att köra bil. Sedan processar vi inte radarbilden rått och fusionerar den samman med bilden från synapserna. Så även där haltar ditt argument.Fredrik j skrev:Nej vi får ju ta in informationen på en skärm. Scenariot där en människa inte kan se visuellt på grund av dålig sikt men istället får information från en radarskärm är ju inget nytt. Människan klarar ju av att sammanväga dessa två intryck. Varför skulle en AI vara sämre?
Det måste väl anses vara det vanligaste i dagens farkoster av alla slag? Olika system med styrkor och svagheter som samverkar. Man har ju t.ex. både backkamera och sensorer.
Jag hävdar att den mänskliga hjärnan inte alls har en liknande funktion som den Sensor Fusion som behövs i en AD-bil som skall processa flera typer av bilder som skiljer sig åt (kamerabilder, radarbilder, lidarbilder) för att slå samman de till en helhet.
Att ta in ett ultraljudsavstånd som våra backvarnare använder (är inte radarteknik som du hävdar) som en enda siffra är däremot inget problem för mjukvara eller maskininlärning. Det är en ytterst enkel sak med väldigt låg komplexitet.
Även Tesla tar in detta med ultraljudsavstånd i sin förenklade AD-lösning (utan Sensor Fusion). Det är simpelt (både för människa och maskin).

NACP have Geely (Volvo, Polestar, Zeeker, Lynk&Co, Lotus, etc) in the list of war sponsors
https://nazk.gov.ua/en/the-nacp-has-add ... f-the-war/
- fth
- Teslaägare
- Inlägg: 8142
- Blev medlem: 30 mar 2017 16:25
- Ort: Stockholm
- Referralkod: ts.la/fredrik8071
Re: FSD Beta är imponerande!
Rent principiellt behöver inte Tesa heller "fusionera" informationen från kameror och andra sensorer, det finns flera arkitekturer för att ha olika parallella processer för att fatta beslut.martinot skrev:Min poäng är att du inte behöver fusionera 3D-bilder i hjärnan med en siffra som en avståndsmätare med ultraljud ger (till skillnad från en 3D-bild från tex. en lidar, eller när du skall komplettera din modellerade 3D-bild och fusionera den med radarinformation som du byggt upp i en 3D-rymd). Enormt stor skillnad i komplexitet.
Även Tesla tar in detta med ultraljudsavstånd i sin förenklade AD-lösning (utan Sensor Fusion). Det är simpelt (både för människa och maskin).
Ett exempel brukar kallas "blackboard"-principen (som jag själv använt mig av med framgång i min tidigare karriär), där olika NN eller andra former av bidragande algoritmer "skriver" sina slutsatser på en "svart tavla", och en övervakande "ordförande"-process/algoritm viktar resultaten mot varandra.
I det här fallet skulle t.ex. bildbehandlings-NN viktas högst, och utgöra enda bidragande algoritm, i alla "normala" fall, och radar endast vägas in när dess information indikerar hinder som bild-NN inte identifierat. Ingen annan integrering behöver då ske öht mellan informationen från kameror och radar, lidar eller andra sensorer (vilket annars precis som du skriver sannolikt skulle öka komplexiteten rejält).
/fth
X90D, 7-sits monopost, Titanium Metallic, AP1, alla options
Re: FSD Beta är imponerande!
Jag förstår inte argumentet som Elon mfl använder sig av att, att bara för att det räcker för en människa med syn/hörsel mm för att köra bil så behöver/ska vi inte använda andra sensorsystem för självkörande bilar. Varför ta människan som referens överhuvudtaget? Det är bilen som ska stå för körandet. Den ska väl använda sig av de sensorsystem som den behöver, och gärna överträffa människan. Vilken kombination 3d-kartor dynamiskt uppdaterade mha andra bilar/Lidar/Kameror/Vehicle-to-Vehicle kommunikation/mikrofoner som sedan detta innebär får framtiden avgöra men gillar inte Elons sätt att motivera avsaknaden av Lidar. Visst, det kanske visar sig att Lidar inte behövs men denna typ av argumentering är fel enligt min mening.
- OfarligTesla
- Teslaägare
- Inlägg: 5703
- Blev medlem: 17 feb 2018 09:16
Re: FSD Beta är imponerande!
För att människan kör nu och blir ju då referenspunkten, så kan man matcha människan i säkerhet så kan man köra på det systemet. Elon satsar ju på kameror för det är ett relativt billigt och att bygga in i bilen och argumentet stämmer ju att eftersom vi människor kan köra med bara syn så är det ju möjligt att ett system med bara kameror kan köra markant bättre än oss (eftersom systemet har mycket bättre reaktionsförmåga och avståndsbedömning osv).Maxerl skrev:Jag förstår inte argumentet som Elon mfl använder sig av att, att bara för att det räcker för en människa med syn/hörsel mm för att köra bil så behöver/ska vi inte använda andra sensorsystem för självkörande bilar. Varför ta människan som referens överhuvudtaget? Det är bilen som ska stå för körandet. Den ska väl använda sig av de sensorsystem som den behöver, och gärna överträffa människan. Vilken kombination 3d-kartor dynamiskt uppdaterade mha andra bilar/Lidar/Kameror/Vehicle-to-Vehicle kommunikation/mikrofoner som sedan detta innebär får framtiden avgöra men gillar inte Elons sätt att motivera avsaknaden av Lidar. Visst, det kanske visar sig att Lidar inte behövs men denna typ av argumentering är fel enligt min mening.
Hade det kunnat bli ännu säkrare med lidar som tillägg? Garanterat. Hade Lidarsystemet kunnat bli ännu säkrare om man dessutom kommunicerade mellan bilarna? Garanterat. Hade det systemet kunnat göras säkrare också? Garanterat. Ingen försöker göra det absolut teoretiskt säkraste sättet som vår teknologi tillåter, alla försöker bara göra det säkrare än människor inom en viss kostnadsram.
Re: FSD Beta är imponerande!
Teslas självkörande bilar är inte som oss människor. De ser åt alla håll samtidigt, kan ha fokus på flera saker samtidigt, ser bättre i mörker och har överlägsen reaktionshastighet.Maxerl skrev:Jag förstår inte argumentet som Elon mfl använder sig av att, att bara för att det räcker för en människa med syn/hörsel mm för att köra bil så behöver/ska vi inte använda andra sensorsystem för självkörande bilar. Varför ta människan som referens överhuvudtaget? Det är bilen som ska stå för körandet. Den ska väl använda sig av de sensorsystem som den behöver, och gärna överträffa människan. Vilken kombination 3d-kartor dynamiskt uppdaterade mha andra bilar/Lidar/Kameror/Vehicle-to-Vehicle kommunikation/mikrofoner som sedan detta innebär får framtiden avgöra men gillar inte Elons sätt att motivera avsaknaden av Lidar. Visst, det kanske visar sig att Lidar inte behövs men denna typ av argumentering är fel enligt min mening.
3d-kartor och lidar är en genväg för att slippa utveckla en tillförlitlig AI som kan tolka trafiksystemet. Men för att en bil ska vara helt självkörande i alla situationer går det inte att förlita sig till genvägar utan det är Teslas strategi som gäller. Flera olika typer av sensorer kan också skapa fler problem. Vilken sensor ska man lita till om de ger motstridig information? Tesla har kanske till slut insett att radarn skapade lika mycket problem som den skulle förhindra?
Mikrofon kan komma men vehicle to vehicle är det bäst att undvika. Det ska helst vara helt omöjligt att manipulera hur en självkörande bil beter sig utifrån. Det är säkrast.
Re: FSD Beta är imponerande!
Hur tänker du här? Kamerorna läser ju av bilens omgivning. Att inte tro att systemen kommer att gå att attackera genom manipulation tror jag är önsketänkande. Det är ett ytterligare argument för att bilarna bör ha flera sensor-system parallellt. Då blir det svårare att lura systemen genom att hålla upp en bild på en stoppskylt på motorvägen, eller vad nu kidsen roar sig med om 20 år.Jordad skrev:Det ska helst vara helt omöjligt att manipulera hur en självkörande bil beter sig utifrån. Det är säkrast.
Däremot tror jag inte på bil-till-bil kommunikation.. Kanske skylt/ljus till bil kan fylla en funktion för att höja säkerhetsgraden.
Re: FSD Beta är imponerande!
Inget AI-system kan ju vara beroende av LIDAR för att fungera. Skulle det vara fallet så blir ju bilen stående vid regn, snö eller dimma. LIDAR, RADAR (både mot marken och sidorna), SONAR, kommunikation mellan bilarna/trafikdata, HD-kartor, korrekt hastighetsdata, väderrapporter m.m. kan ge ytterligare fördelar men minimumkravet med att navigera bil med hjälp av synligt ljus måste ju först lösas. Det är på detta som hela vägsystemet är byggt. Temperatur borde vara en faktor som påverkar körstilen redan i dag (acceleration (positiv och negativ) och avstånd tex) men övriga sensorer bör mer ses som framtida hjälpmedel.
They who can give up essential liberty to obtain a little temporary safety, deserve neither liberty nor safety.
Re: FSD Beta är imponerande!
Nu sa ju jag inte Lidar, men visst är det så att "vision" är viktigast, men det är ju fortfarande problem med igensnöade/regnade kameror/sensorer. Ju mer redundans, ju bättre tänker jag.Svenssons skrev:Inget AI-system kan ju vara beroende av LIDAR för att fungera. Skulle det vara fallet så blir ju bilen stående vid regn, snö eller dimma. LIDAR, RADAR (både mot marken och sidorna), SONAR, kommunikation mellan bilarna/trafikdata, HD-kartor, korrekt hastighetsdata, väderrapporter m.m. kan ge ytterligare fördelar men minimumkravet med att navigera bil med hjälp av synligt ljus måste ju först lösas. Det är på detta som hela vägsystemet är byggt. Temperatur borde vara en faktor som påverkar körstilen redan i dag (acceleration (positiv och negativ) och avstånd tex) men övriga sensorer bör mer ses som framtida hjälpmedel.
Re: FSD Beta är imponerande!
Är det regn eller snö så är ju LIDAR sämre än kamera och ger ingen redundans alls. Spelar ingen roll om LIDAR-sensorn är fri eftersom LIDAR inte kan se genom snö, regn och dimma. Problemet idag är troligen inte att antalet sensorer är för lågt utan tvärtom att mjukvaran tillsammans med processorkraften som finns måste kunna klara av att hantera och processa alla sensorer. Det går dessutom inte att köra på enbart LIDAR öven om det inte vore regn, snö eller dimma så det ger ingen redundans, endast ökad funktionalitet när kamerasystemet fungerar.spacecoin skrev:Visst är det så att "vision" är viktigast, men det är ju fortfarande problem med igensnöade/regnade kameror/sensorer. Ju mer redundans, ju bättre tänker jag.Svenssons skrev:Inget AI-system kan ju vara beroende av LIDAR för att fungera. Skulle det vara fallet så blir ju bilen stående vid regn, snö eller dimma. LIDAR, RADAR (både mot marken och sidorna), SONAR, kommunikation mellan bilarna/trafikdata, HD-kartor, korrekt hastighetsdata, väderrapporter m.m. kan ge ytterligare fördelar men minimumkravet med att navigera bil med hjälp av synligt ljus måste ju först lösas. Det är på detta som hela vägsystemet är byggt. Temperatur borde vara en faktor som påverkar körstilen redan i dag (acceleration (positiv och negativ) och avstånd tex) men övriga sensorer bör mer ses som framtida hjälpmedel.
They who can give up essential liberty to obtain a little temporary safety, deserve neither liberty nor safety.
- Johlei
- Teslaägare
- Inlägg: 313
- Blev medlem: 21 jun 2019 10:06
- Ort: Huddinge
- Referralkod: ts.la/john713130
Re: FSD Beta är imponerande!
Bilens kameror sitter fast och kan skymmas av t.ex. en insekt som kraschar mot rutan. En människa kan flytta huvudet och se förbi insektsblobben.
Detta gör människans syn överlägsen med avseende på robusthet (även om vi ser sämre än kameran när vi ser och har sämre reaktionstid etc).
Hur hanterar ett _självkörande_ fordon detta och liknande fall? Ett sätt jag kan tänka mig är att ha kameran/kamerorna inne i kupén istället för direkt mot vindrutan. Men det är ju inte heller oproblematiskt.
Detta gör människans syn överlägsen med avseende på robusthet (även om vi ser sämre än kameran när vi ser och har sämre reaktionstid etc).
Hur hanterar ett _självkörande_ fordon detta och liknande fall? Ett sätt jag kan tänka mig är att ha kameran/kamerorna inne i kupén istället för direkt mot vindrutan. Men det är ju inte heller oproblematiskt.
Tesla Model Y AWD Long Range 2023
Tesla Model 3 AWD Long Range 2019
Tesla Model 3 AWD Long Range 2019
Re: FSD Beta är imponerande!
Absolut och inte bara det, vi har två ögon och kan därför uppfatta djup.Johlei skrev:Bilens kameror sitter fast och kan skymmas av t.ex. en insekt som kraschar mot rutan. En människa kan flytta huvudet och se förbi insektsblobben.
Detta gör människans syn överlägsen med avseende på robusthet (även om vi ser sämre än kameran när vi ser och har sämre reaktionstid etc).
Hur hanterar ett _självkörande_ fordon detta och liknande fall? Ett sätt jag kan tänka mig är att ha kameran/kamerorna inne i kupén istället för direkt mot vindrutan. Men det är ju inte heller oproblematiskt.
Så helt enkelt är det inte. Men jag tror faktiskt på konceptet även om det finns lite kvar att lösa.
Re: FSD Beta är imponerande!
Tesla har 5 kameror som ser framåt med olika placering. Skulle alla de 3 viktigaste bakom vindrutan blockeras samtidigt så bör bilen ändå klara av att säkert köra åt sidan och stanna. Tesla har garanterat gjort mängder med tester där de blockerat kameror för att se hur bilen hanterar situationen. Man har dessutom data från flera miljarder färdade kilometer och har nog rätt bra koll vid det här laget på hur mycket snö, regn, dimma, insekter och annat påverkar.Johlei skrev:Bilens kameror sitter fast och kan skymmas av t.ex. en insekt som kraschar mot rutan. En människa kan flytta huvudet och se förbi insektsblobben.
Detta gör människans syn överlägsen med avseende på robusthet (även om vi ser sämre än kameran när vi ser och har sämre reaktionstid etc).
Hur hanterar ett _självkörande_ fordon detta och liknande fall? Ett sätt jag kan tänka mig är att ha kameran/kamerorna inne i kupén istället för direkt mot vindrutan. Men det är ju inte heller oproblematiskt.