spacecoin skrev:agehall skrev:...den lyckas inte klassificera det den ser alls.
Man behöver inte veta om objektet är pensionär, om det är en bil, moped, kvinna, hund, eller ett barn för att hantera den här situationen rätt. Att du inte förstår det bevisar att du inte förstår tillräckligt mycket om autonom körning.
Jag vet inte vad du har för kvalifikationer inom AI, men dina argument är inte direkt övertygande. Självklart behöver man inte veta om det är en 68-årig man eller en 25-årig kvinna - det räcker gott att veta att det är en person, vilket det varken var eller identifierades som.
För att vara övertydlig och väldigt förenklat beskriva hur det fungerar - bilen tittar på bilden från kameran och använder AI för att avgöra vad den ser. En AI har lärt sig hur saker ser ut genom att den tränas på att känna igen saker. En AI extrapolerar dock normalt sett mycket mindre än vad vi människor gör och det leder ofta till att den inte kan känna igen objekt som inte stämmer med vad den tränats på.
Bara för att den där dockan skulle kunna likna en människa, så är sättet den rör sig på högst onaturligt för en människa och det minskar troligen drastiskt chansen att bilen skulle se den som en människa.
Om du vill att bilen alltid ska ta det säkra före det osäkra så kommer bilen bokstavligen vara okörbar. Allt kan vara farligt och bilen bör därför stanna.
spacecoin skrev: Jag tolkade ditt försvar av händelsen som att den visste att det inte var ett barn eftersom den valde att glatt köra vidare meja ned det okända objektet trots att det skulle kunna vara ett barn i en halloween-kostym. Eller ska man behöva träna på alla halloween-kostymer tycker du? Om bilen inte kan klassificera objektet och därmed bortser i från det i planeringen, tycker jag du bevisar vad jag säger.
Jag försökte förklara varför det som inträffade är fullt rimligt från en teknisk synvinkel. Att känna igen barn i halloween-kostymer är nog mycket mer troligt än att någonsin känna igen en docka som släpas halvliggande över gatan. Det kommer tillbaka till rörelsemönstret.
Eftersom jag inte jobbar på Tesla och inte har någon som helst insikt i deras faktiska AI-utveckling, så kan jag ju inte med säkerhet säga att det fungerar som jag tror, men det är ganska troligt att det är ungefär så det går till.
Tittar man på allt som förekommer i trafiken, så är det inte alls orimligt att man bortser från en massa saker när man planerar sin körning. En påse som blåser över vägen är tex inte en bra orsak att tvärnita, varesig man kör själv eller om en dator kör.
spacecoin skrev: Jag tror inte att Tesla prioriterar defensiv körning, varken med FSD-betan eller med AP på grund av att det är avsedd att vara just L2 (inte autonom) och utvecklas hela tiden för att upprätthålla balansen mellan "onödiga" inbromsningar och säkerhet. Det är förståeligt, med då kanske man inte ska försöka köra omkring bland oskyddade trafikanter i stadsmiljö med otillräckliga sensorer?
Nej, och det är väl typ vad Tesla säger också? Iallafall säger väl deras FSD-option i Sverige just nu något i stil med ”självkörande i stadsmiljö (kommer senare)”? Oavsett så är vi ju som sagt inte på L3 än vilket innebär att bilen förväntar sig övervakning av en förare som ska reagera när något sker som inte bilen kan hantera.
Som jag har förstått det är väl hela tanken med FSD så som den ser ut nu, att vi som är teknikvänliga ska använda den för att det i slutändan genererar mer data för Tesla som de kan träna på och därigenom kommer den bli bättre med tiden. Att träna en AI av denna komplexitet är dock inget som direkt görs på en timme…
agehall skrev:Det man måste förstå här är att bilen i vissa lägen kan fatta superknepiga saker och ta väldigt kloka beslut samtidigt som den i andra, helt uppenbara situationer för oss människor, tar helt galna beslut - allt hänger på hur den tränats och om en lik situation varit med i träningsdatat.
Det man måste förstå är att man behöver ha en säker ODD för utrullning av säkerhetskritiska system. Om man anser att det man gör nu är "utveckling", "test" eller "validering" så ska man ha utbildad personal som kör bilarna, och tillverkaren ska vara ansvarig under dessa faser. Tesla har sålt någon slags myt om att man måste ha "verkliga mil" och datafångst från dessa. I själva verket så samlar Tesla in väldigt lite data från betan. Man gjorde det mer i början. AV-bolagen har satsat mycket mer på simulering (än Tesla) för att inte bara samla data om samma sak hela tiden. Ovanliga "objekt" kan man hitta lätt. men att hitta "ovanliga situationer" i datasettet från vanlig körning är nästan omöjligt.
spacecoin skrev:agehall skrev:spacecoin skrev: Det här systemet är inte autonomt, kommer inte blir autonomt. Du är helt lurad om du tror annat.
Det må vara hänt. Jag är fullt medveten om var vi står idag och vart vi är på väg. Förr eller senare kommer systemet bli självkörande men när det kommer är en helt annan fråga - det kommer inte direkt ske imorgon.
Det kommer inte att ske att det har systemet (med 1.2MP-kameror) blir autonomt under våra bilars livstid i någon större ODD. Att ett framtida system från Tesla eller någon annan personbilstillverkare skulle bli autonomt i stadsmiljö med oskyddade trafikanter utan aktiva sensorer det är minst 10 år bort, både tekniskt och legalt.
Det enda stora hindret som jag ser är det juridiska. Tekniken kommer nå dit förr eller senare. Om 1.2MP-kameror räcker eller inte återstår att se, men även om det skulle krävas 1000MP-kameror så kommer det vara en relativt enkel uppgradering den dagen det blir verklighet.