Med eventet avklarat och RobotTaxi officiell kan man väl sammanfatta resultatet som: Reuters-Elon 1–0.
Jag som ändå hoppades på att en "Tesla 2" skulle komma ut på marknaden inom 1-2 år och utmana ID.3, MG 4 osv.
Det hade verkligen fått fart på EV-försäljningen i Europa.
RobotTaxin blev en besvikelse. Mer bilism med för bara två personer, istället för kollektivtrafik, känns som en VÄLDIGT amerikansk lösning.
Optimus robotarna verkade vara fjärrstyrda av människor
Ja det är uppenbart. Twitter är fullt av klipp på folk som frågar roboten som pratar tillbaka men det låter verkligen som att det är en människa som sitter och svarar, inte som på ChatGPT vis direkt. Varför göra så, det blir ju bara negativt istället för att man ska imponeras av hur roboten verkligen är.
Varför göra så, det blir ju bara negativt istället för att man ska imponeras av hur roboten verkligen är.
Det finns inget att imponeras av förutom själva hårdvaran. Tyvärr är roboten är bara användbar som bojsänke utan mjukvara, och det är en produkt som inte kommer att kunna realiseras utanför sci-fi-noveller före 2040. Kanske ej heller efter 2040 om det inte sker stora genombrott inom ML.
Det enda syftet med Optimus (och andra humanioder) är att pumpa upp hajp/värdering. Samma med "autonomi"/robotaxi.
Kan man inte få en bil att köra autonomt i ett vägsystem kan man garanterat inte få en humanoid robot att bli autonom i långt mer komplexa och ostrukturerade miljöer. Det säger sig själv.
Robotics är till 95% ett mjukvaruproblem, ändå väljer man att börja med hårdvaran.. Vill man lösa robotics på riktigt gör man det i simulator. Men det kan man inte pumpa aktiekurser med...
Varför göra så, det blir ju bara negativt istället för att man ska imponeras av hur roboten verkligen är.
Det finns inget att imponeras av förutom själva hårdvaran. Tyvärr är roboten är bara användbar som bojsänke utan mjukvara, och det är en produkt som inte kommer att kunna realiseras utanför sci-fi-noveller före 2040. Kanske ej heller efter 2040 om det inte sker stora genombrott inom ML.
Det enda syftet med Optimus (och andra humanioder) är att pumpa upp hajp/värdering. Samma med "autonomi"/robotaxi.
Kan man inte få en bil att köra autonomt i ett vägsystem kan man garanterat inte få en humanoid robot att bli autonom i långt mer komplexa och ostrukturerade miljöer. Det säger sig själv.
Robotics är till 95% ett mjukvaruproblem, ändå väljer man att börja med hårdvaran.. Vill man lösa robotics på riktigt gör man det i simulator. Men det kan man inte pumpa aktiekurser med...
Som jag uttryckt förut så förstår jag inte varför man inte bara låter en robot lära sig köra bil så har man ju ett autonomt fordon. Om man kan lösa en autonom bil kan man ju använda precis samma mjukvara i en robot. Då behöver man ju inte bygga alla dessa nya bilar utan bara byta ut taxichauffören i befintliga bilar.
Att man hajpar bägge samtidigt får jag inte riktigt ihop.
Varför göra så, det blir ju bara negativt istället för att man ska imponeras av hur roboten verkligen är.
Det finns inget att imponeras av förutom själva hårdvaran. Tyvärr är roboten är bara användbar som bojsänke utan mjukvara, och det är en produkt som inte kommer att kunna realiseras utanför sci-fi-noveller före 2040. Kanske ej heller efter 2040 om det inte sker stora genombrott inom ML.
Det enda syftet med Optimus (och andra humanioder) är att pumpa upp hajp/värdering. Samma med "autonomi"/robotaxi.
Kan man inte få en bil att köra autonomt i ett vägsystem kan man garanterat inte få en humanoid robot att bli autonom i långt mer komplexa och ostrukturerade miljöer. Det säger sig själv.
Robotics är till 95% ett mjukvaruproblem, ändå väljer man att börja med hårdvaran.. Vill man lösa robotics på riktigt gör man det i simulator. Men det kan man inte pumpa aktiekurser med...
Som jag uttryckt förut så förstår jag inte varför man inte bara låter en robot lära sig köra bil så har man ju ett autonomt fordon. Om man kan lösa en autonom bil kan man ju använda precis samma mjukvara i en robot. Då behöver man ju inte bygga alla dessa nya bilar utan bara byta ut taxichauffören i befintliga bilar.
Att man hajpar bägge samtidigt får jag inte riktigt ihop.
Problemet är väl att i så fall blir alla bilar "autonoma" och då skulle Tesla tappa sin USP som man försöker inbilla folk att man har med sina bilar.
Varför göra så, det blir ju bara negativt istället för att man ska imponeras av hur roboten verkligen är.
Det finns inget att imponeras av förutom själva hårdvaran. Tyvärr är roboten är bara användbar som bojsänke utan mjukvara, och det är en produkt som inte kommer att kunna realiseras utanför sci-fi-noveller före 2040. Kanske ej heller efter 2040 om det inte sker stora genombrott inom ML.
Det enda syftet med Optimus (och andra humanioder) är att pumpa upp hajp/värdering. Samma med "autonomi"/robotaxi.
Kan man inte få en bil att köra autonomt i ett vägsystem kan man garanterat inte få en humanoid robot att bli autonom i långt mer komplexa och ostrukturerade miljöer. Det säger sig själv.
Robotics är till 95% ett mjukvaruproblem, ändå väljer man att börja med hårdvaran.. Vill man lösa robotics på riktigt gör man det i simulator. Men det kan man inte pumpa aktiekurser med...
Som jag uttryckt förut så förstår jag inte varför man inte bara låter en robot lära sig köra bil så har man ju ett autonomt fordon. Om man kan lösa en autonom bil kan man ju använda precis samma mjukvara i en robot. Då behöver man ju inte bygga alla dessa nya bilar utan bara byta ut taxichauffören i befintliga bilar.
Att man hajpar bägge samtidigt får jag inte riktigt ihop.
Inte för att jag tror att Tesla någonsin kommer lösa "Självkörande bilar" eller skapa en robot som klarar av att köra bil eller ens agera som i deras manipulerade demonstrationer, MEN jag inbillar mig att hårdvaran i HW3 är väldigt mycket billigare än hårdvaran i deras "robotar" (även om man inte räknar in människorna som uppenbarligen krävs för att få robotarna att agera....)
Varför göra så, det blir ju bara negativt istället för att man ska imponeras av hur roboten verkligen är.
Det finns inget att imponeras av förutom själva hårdvaran. Tyvärr är roboten är bara användbar som bojsänke utan mjukvara, och det är en produkt som inte kommer att kunna realiseras utanför sci-fi-noveller före 2040. Kanske ej heller efter 2040 om det inte sker stora genombrott inom ML.
Det enda syftet med Optimus (och andra humanioder) är att pumpa upp hajp/värdering. Samma med "autonomi"/robotaxi.
Kan man inte få en bil att köra autonomt i ett vägsystem kan man garanterat inte få en humanoid robot att bli autonom i långt mer komplexa och ostrukturerade miljöer. Det säger sig själv.
Robotics är till 95% ett mjukvaruproblem, ändå väljer man att börja med hårdvaran.. Vill man lösa robotics på riktigt gör man det i simulator. Men det kan man inte pumpa aktiekurser med...
Som jag uttryckt förut så förstår jag inte varför man inte bara låter en robot lära sig köra bil så har man ju ett autonomt fordon. Om man kan lösa en autonom bil kan man ju använda precis samma mjukvara i en robot. Då behöver man ju inte bygga alla dessa nya bilar utan bara byta ut taxichauffören i befintliga bilar.
Att man hajpar bägge samtidigt får jag inte riktigt ihop.
Bilen har kameror åt alla håll som ger en (nästan) 360-graders bild av allt som händer runt bilen, samt direkt tillgång till hårdvaran för att kontrollera bilen.
En robot som sätter sig i valfritt fordon har endast tillgång till sina egna sensorer och ett mycket begränsat synfält, och behöver kunna förstå och anpassa sig till olika typer och utseenden för ratt, pedaler, reglage etc i olika bilar.
Detta är två helt olika och knappt jämförbara scenarios, varav "robot-chaufför"-scenariot sannolikt är storleksordningar svårare att uppnå, det krävs sannolikt AGI-nivåer för detta.
/fth
Re: 10e oktober-eventet
Postat: 11 okt 2024 14:38
av Hertsh
Under tiden, fortsätter bilar i Europa spökbromsa och ha problem att läsa hastighetsskyltar.
Varför göra så, det blir ju bara negativt istället för att man ska imponeras av hur roboten verkligen är.
Det finns inget att imponeras av förutom själva hårdvaran. Tyvärr är roboten är bara användbar som bojsänke utan mjukvara, och det är en produkt som inte kommer att kunna realiseras utanför sci-fi-noveller före 2040. Kanske ej heller efter 2040 om det inte sker stora genombrott inom ML.
Det enda syftet med Optimus (och andra humanioder) är att pumpa upp hajp/värdering. Samma med "autonomi"/robotaxi.
Kan man inte få en bil att köra autonomt i ett vägsystem kan man garanterat inte få en humanoid robot att bli autonom i långt mer komplexa och ostrukturerade miljöer. Det säger sig själv.
Robotics är till 95% ett mjukvaruproblem, ändå väljer man att börja med hårdvaran.. Vill man lösa robotics på riktigt gör man det i simulator. Men det kan man inte pumpa aktiekurser med...
Som jag uttryckt förut så förstår jag inte varför man inte bara låter en robot lära sig köra bil så har man ju ett autonomt fordon. Om man kan lösa en autonom bil kan man ju använda precis samma mjukvara i en robot. Då behöver man ju inte bygga alla dessa nya bilar utan bara byta ut taxichauffören i befintliga bilar.
Att man hajpar bägge samtidigt får jag inte riktigt ihop.
Bilen har kameror åt alla håll som ger en (nästan) 360-graders bild av allt som händer runt bilen, samt direkt tillgång till hårdvaran för att kontrollera bilen.
En robot som sätter sig i valfritt fordon har endast tillgång till sina egna sensorer och ett mycket begränsat synfält, och behöver kunna förstå och anpassa sig till olika typer och utseenden för ratt, pedaler, reglage etc i olika bilar.
Detta är två helt olika och knappt jämförbara scenarios, varav "robot-chaufför"-scenariot sannolikt är storleksordningar svårare att uppnå, det krävs sannolikt AGI-nivåer för detta.
/fth
Skulle ju räcka att roboten får tillgång till externa kameror.
Min poäng är att man låtsas att roboten är runt hörnet och ändå lägger man så mycket hajp på taxin.
Varför göra så, det blir ju bara negativt istället för att man ska imponeras av hur roboten verkligen är.
Det finns inget att imponeras av förutom själva hårdvaran. Tyvärr är roboten är bara användbar som bojsänke utan mjukvara, och det är en produkt som inte kommer att kunna realiseras utanför sci-fi-noveller före 2040. Kanske ej heller efter 2040 om det inte sker stora genombrott inom ML.
Det enda syftet med Optimus (och andra humanioder) är att pumpa upp hajp/värdering. Samma med "autonomi"/robotaxi.
Kan man inte få en bil att köra autonomt i ett vägsystem kan man garanterat inte få en humanoid robot att bli autonom i långt mer komplexa och ostrukturerade miljöer. Det säger sig själv.
Robotics är till 95% ett mjukvaruproblem, ändå väljer man att börja med hårdvaran.. Vill man lösa robotics på riktigt gör man det i simulator. Men det kan man inte pumpa aktiekurser med...
Som jag uttryckt förut så förstår jag inte varför man inte bara låter en robot lära sig köra bil så har man ju ett autonomt fordon. Om man kan lösa en autonom bil kan man ju använda precis samma mjukvara i en robot. Då behöver man ju inte bygga alla dessa nya bilar utan bara byta ut taxichauffören i befintliga bilar.
Att man hajpar bägge samtidigt får jag inte riktigt ihop.
Bilen har kameror åt alla håll som ger en (nästan) 360-graders bild av allt som händer runt bilen, samt direkt tillgång till hårdvaran för att kontrollera bilen.
En robot som sätter sig i valfritt fordon har endast tillgång till sina egna sensorer och ett mycket begränsat synfält, och behöver kunna förstå och anpassa sig till olika typer och utseenden för ratt, pedaler, reglage etc i olika bilar.
Detta är två helt olika och knappt jämförbara scenarios, varav "robot-chaufför"-scenariot sannolikt är storleksordningar svårare att uppnå, det krävs sannolikt AGI-nivåer för detta.
/fth
Elon och de andra som tror på vision only rättfärdigar väl det med att om människor kan köra med bara våra ögon så ska en bil klara det också, så då bör väl en robot klara det också?
Varför göra så, det blir ju bara negativt istället för att man ska imponeras av hur roboten verkligen är.
Det finns inget att imponeras av förutom själva hårdvaran. Tyvärr är roboten är bara användbar som bojsänke utan mjukvara, och det är en produkt som inte kommer att kunna realiseras utanför sci-fi-noveller före 2040. Kanske ej heller efter 2040 om det inte sker stora genombrott inom ML.
Det enda syftet med Optimus (och andra humanioder) är att pumpa upp hajp/värdering. Samma med "autonomi"/robotaxi.
Kan man inte få en bil att köra autonomt i ett vägsystem kan man garanterat inte få en humanoid robot att bli autonom i långt mer komplexa och ostrukturerade miljöer. Det säger sig själv.
Robotics är till 95% ett mjukvaruproblem, ändå väljer man att börja med hårdvaran.. Vill man lösa robotics på riktigt gör man det i simulator. Men det kan man inte pumpa aktiekurser med...
Som jag uttryckt förut så förstår jag inte varför man inte bara låter en robot lära sig köra bil så har man ju ett autonomt fordon. Om man kan lösa en autonom bil kan man ju använda precis samma mjukvara i en robot. Då behöver man ju inte bygga alla dessa nya bilar utan bara byta ut taxichauffören i befintliga bilar.
Att man hajpar bägge samtidigt får jag inte riktigt ihop.
Bilen har kameror åt alla håll som ger en (nästan) 360-graders bild av allt som händer runt bilen, samt direkt tillgång till hårdvaran för att kontrollera bilen.
En robot som sätter sig i valfritt fordon har endast tillgång till sina egna sensorer och ett mycket begränsat synfält, och behöver kunna förstå och anpassa sig till olika typer och utseenden för ratt, pedaler, reglage etc i olika bilar.
Detta är två helt olika och knappt jämförbara scenarios, varav "robot-chaufför"-scenariot sannolikt är storleksordningar svårare att uppnå, det krävs sannolikt AGI-nivåer för detta.
/fth
Skulle ju räcka att roboten får tillgång till externa kameror.
Min poäng är att man låtsas att roboten är runt hörnet och ändå lägger man så mycket hajp på taxin.
Ja, roboten skulle ju kunna få direkt/ virtuell tillgång till såväl bilens sensorer som reglage och aldrig behöva röra de fysiska reglagen eller se ut genom rutan. Dessutom ska ju roboten inte kosta mer än typ dubbelt vad FSD kostar i USA så en Teslabot som väl Tesla tidigare lovat ska komma i år eller nästa år borde göra FSD obsolete.
Den här typen av logiska kullerbyttor som Tesla gör visar definitivt att det handlar om vapor ware…
Varför göra så, det blir ju bara negativt istället för att man ska imponeras av hur roboten verkligen är.
Det finns inget att imponeras av förutom själva hårdvaran. Tyvärr är roboten är bara användbar som bojsänke utan mjukvara, och det är en produkt som inte kommer att kunna realiseras utanför sci-fi-noveller före 2040. Kanske ej heller efter 2040 om det inte sker stora genombrott inom ML.
Det enda syftet med Optimus (och andra humanioder) är att pumpa upp hajp/värdering. Samma med "autonomi"/robotaxi.
Kan man inte få en bil att köra autonomt i ett vägsystem kan man garanterat inte få en humanoid robot att bli autonom i långt mer komplexa och ostrukturerade miljöer. Det säger sig själv.
Robotics är till 95% ett mjukvaruproblem, ändå väljer man att börja med hårdvaran.. Vill man lösa robotics på riktigt gör man det i simulator. Men det kan man inte pumpa aktiekurser med...
Som jag uttryckt förut så förstår jag inte varför man inte bara låter en robot lära sig köra bil så har man ju ett autonomt fordon. Om man kan lösa en autonom bil kan man ju använda precis samma mjukvara i en robot. Då behöver man ju inte bygga alla dessa nya bilar utan bara byta ut taxichauffören i befintliga bilar.
Att man hajpar bägge samtidigt får jag inte riktigt ihop.
Bilen har kameror åt alla håll som ger en (nästan) 360-graders bild av allt som händer runt bilen, samt direkt tillgång till hårdvaran för att kontrollera bilen.
En robot som sätter sig i valfritt fordon har endast tillgång till sina egna sensorer och ett mycket begränsat synfält, och behöver kunna förstå och anpassa sig till olika typer och utseenden för ratt, pedaler, reglage etc i olika bilar.
Detta är två helt olika och knappt jämförbara scenarios, varav "robot-chaufför"-scenariot sannolikt är storleksordningar svårare att uppnå, det krävs sannolikt AGI-nivåer för detta.
/fth
Elon och de andra som tror på vision only rättfärdigar väl det med att om människor kan köra med bara våra ögon så ska en bil klara det också, så då bör väl en robot klara det också?
Nja, Tesla har aldrig påstått att autonomi kommer att uppnås med samma begränsade synfält etc som en människa, endast att det skall uppnås utan ytterligare sensorer utöver kameror.
Begränsningen (som man iofs absolut kan ha många åsikter om) dom har är alltså "vision only", inte "human driver equivalent semi-blocked vision only".
Det finns inget att imponeras av förutom själva hårdvaran. Tyvärr är roboten är bara användbar som bojsänke utan mjukvara, och det är en produkt som inte kommer att kunna realiseras utanför sci-fi-noveller före 2040. Kanske ej heller efter 2040 om det inte sker stora genombrott inom ML.
Det enda syftet med Optimus (och andra humanioder) är att pumpa upp hajp/värdering. Samma med "autonomi"/robotaxi.
Kan man inte få en bil att köra autonomt i ett vägsystem kan man garanterat inte få en humanoid robot att bli autonom i långt mer komplexa och ostrukturerade miljöer. Det säger sig själv.
Robotics är till 95% ett mjukvaruproblem, ändå väljer man att börja med hårdvaran.. Vill man lösa robotics på riktigt gör man det i simulator. Men det kan man inte pumpa aktiekurser med...
Som jag uttryckt förut så förstår jag inte varför man inte bara låter en robot lära sig köra bil så har man ju ett autonomt fordon. Om man kan lösa en autonom bil kan man ju använda precis samma mjukvara i en robot. Då behöver man ju inte bygga alla dessa nya bilar utan bara byta ut taxichauffören i befintliga bilar.
Att man hajpar bägge samtidigt får jag inte riktigt ihop.
Bilen har kameror åt alla håll som ger en (nästan) 360-graders bild av allt som händer runt bilen, samt direkt tillgång till hårdvaran för att kontrollera bilen.
En robot som sätter sig i valfritt fordon har endast tillgång till sina egna sensorer och ett mycket begränsat synfält, och behöver kunna förstå och anpassa sig till olika typer och utseenden för ratt, pedaler, reglage etc i olika bilar.
Detta är två helt olika och knappt jämförbara scenarios, varav "robot-chaufför"-scenariot sannolikt är storleksordningar svårare att uppnå, det krävs sannolikt AGI-nivåer för detta.
/fth
Skulle ju räcka att roboten får tillgång till externa kameror.
Min poäng är att man låtsas att roboten är runt hörnet och ändå lägger man så mycket hajp på taxin.
Ja, roboten skulle ju kunna få direkt/ virtuell tillgång till såväl bilens sensorer som reglage och aldrig behöva röra de fysiska reglagen eller se ut genom rutan. Dessutom ska ju roboten inte kosta mer än typ dubbelt vad FSD kostar i USA så en Teslabot som väl Tesla tidigare lovat ska komma i år eller nästa år borde göra FSD obsolete.
Den här typen av logiska kullerbyttor som Tesla gör visar definitivt att det handlar om vapor ware…
Vad skulle poängen vara med den lösningen?
FSD-datorn sitter ju redan i bilen, varför skulle man vilja ta upp en hel plats i bilen med en ytterligare likadan processor i ett robot-chassi, om man inte skall använda något av den funktionalitet som roboten tillför?
Under tiden, fortsätter bilar i Europa spökbromsa och ha problem att läsa hastighetsskyltar.
Bilen har ju inte problem med att läsa hastighetsskyltarna utan problemet är att det finns ett patent på att göra det och visa det skyltavläsningen läser.
Alltså försöker Tesla komma runt det med en databas (som möjligen uppdateras av bilarnas kameror) för att spara pengar.
Previs som alla andra halvdana lösningar de håller på med, tex att inte ha en regnsensor.
Därför man kan passera en 110-skylt, bilen ser skylten, läser av den korrekt och presenterar den snyggt animerad för föraren.
Men den skylten som visar hur fort man får köra visar 40,70,80,90 eller ngt annat men inte så ofta 110.
(Spelar ingen större roll om det står 90 på skylten, samma problem).
Re: 10e oktober-eventet
Postat: 11 okt 2024 15:58
av Remuz
Avsatte just tiden att se eventet. Jag känner lite att jag borde få ett pris nu när jag varit nostradamus (eller NostraRemuz) både på northvolt och detta event. Jag har svårt att förstå hur folk fortsätter pumpa denna aktie när VDn har tappat det fullständigt. Vissa saker tycker jag är farligt nära kriminella handlingar (vet ej hur lagen ser ut kring publika bolag i usa men att pumpa så som han gör hade inte varit lagligt i sverige).
Kort sagt är besvikelsen väntad.
Sidenote, min ps2 läser skyltar, har bättre AP och har regnsensor som funkar. Ändå saknar jag min trea ibland, som tur är har jag en 3P som jag kör ganska mycket mer också.
Som jag uttryckt förut så förstår jag inte varför man inte bara låter en robot lära sig köra bil så har man ju ett autonomt fordon. Om man kan lösa en autonom bil kan man ju använda precis samma mjukvara i en robot. Då behöver man ju inte bygga alla dessa nya bilar utan bara byta ut taxichauffören i befintliga bilar.
Att man hajpar bägge samtidigt får jag inte riktigt ihop.
Bilen har kameror åt alla håll som ger en (nästan) 360-graders bild av allt som händer runt bilen, samt direkt tillgång till hårdvaran för att kontrollera bilen.
En robot som sätter sig i valfritt fordon har endast tillgång till sina egna sensorer och ett mycket begränsat synfält, och behöver kunna förstå och anpassa sig till olika typer och utseenden för ratt, pedaler, reglage etc i olika bilar.
Detta är två helt olika och knappt jämförbara scenarios, varav "robot-chaufför"-scenariot sannolikt är storleksordningar svårare att uppnå, det krävs sannolikt AGI-nivåer för detta.
/fth
Skulle ju räcka att roboten får tillgång till externa kameror.
Min poäng är att man låtsas att roboten är runt hörnet och ändå lägger man så mycket hajp på taxin.
Ja, roboten skulle ju kunna få direkt/ virtuell tillgång till såväl bilens sensorer som reglage och aldrig behöva röra de fysiska reglagen eller se ut genom rutan. Dessutom ska ju roboten inte kosta mer än typ dubbelt vad FSD kostar i USA så en Teslabot som väl Tesla tidigare lovat ska komma i år eller nästa år borde göra FSD obsolete.
Den här typen av logiska kullerbyttor som Tesla gör visar definitivt att det handlar om vapor ware…
Vad skulle poängen vara med den lösningen?
FSD-datorn sitter ju redan i bilen, varför skulle man vilja ta upp en hel plats i bilen med en ytterligare likadan processor i ett robot-chassi, om man inte skall använda något av den funktionalitet som roboten tillför?
/fth
Något kan väl roboten göra utanför bilen? Hålla paraplyet. Eller bara stå där och se futuristisk och cool ut? Verkar ju vara nog så viktigt.
Avsatte just tiden att se eventet. Jag känner lite att jag borde få ett pris nu när jag varit nostradamus (eller NostraRemuz) både på northvolt och detta event. Jag har svårt att förstå hur folk fortsätter pumpa denna aktie när VDn har tappat det fullständigt. Vissa saker tycker jag är farligt nära kriminella handlingar (vet ej hur lagen ser ut kring publika bolag i usa men att pumpa så som han gör hade inte varit lagligt i sverige).
Kort sagt är besvikelsen väntad.
Sidenote, min ps2 läser skyltar, har bättre AP och har regnsensor som funkar. Ändå saknar jag min trea ibland, som tur är har jag en 3P som jag kör ganska mycket mer också.
Jag har svårt att förstå hur folk kan sitta uppe mitt i natten för att se detta. Man får ju ändå veta senare vad som hände (och inte hände).
Är det bara jag som tror aktien kommer tokdyka idag? Känns som om Wall Street inte kommer förstå det här eventet...
Droppat från 240 till runt 225 i förhandeln.
Köpläge
runt 100-110 är det köpläge, eventuellt, imho. 30 P/E är rätt högt det med i sektorn... Om nu inte vinsten rasar för alla rabatter och AI-investeringar, då ligger P/E ännu högre.
Bilen har kameror åt alla håll som ger en (nästan) 360-graders bild av allt som händer runt bilen, samt direkt tillgång till hårdvaran för att kontrollera bilen.
En robot som sätter sig i valfritt fordon har endast tillgång till sina egna sensorer och ett mycket begränsat synfält, och behöver kunna förstå och anpassa sig till olika typer och utseenden för ratt, pedaler, reglage etc i olika bilar.
Detta är två helt olika och knappt jämförbara scenarios, varav "robot-chaufför"-scenariot sannolikt är storleksordningar svårare att uppnå, det krävs sannolikt AGI-nivåer för detta.
/fth
Skulle ju räcka att roboten får tillgång till externa kameror.
Min poäng är att man låtsas att roboten är runt hörnet och ändå lägger man så mycket hajp på taxin.
Ja, roboten skulle ju kunna få direkt/ virtuell tillgång till såväl bilens sensorer som reglage och aldrig behöva röra de fysiska reglagen eller se ut genom rutan. Dessutom ska ju roboten inte kosta mer än typ dubbelt vad FSD kostar i USA så en Teslabot som väl Tesla tidigare lovat ska komma i år eller nästa år borde göra FSD obsolete.
Den här typen av logiska kullerbyttor som Tesla gör visar definitivt att det handlar om vapor ware…
Vad skulle poängen vara med den lösningen?
FSD-datorn sitter ju redan i bilen, varför skulle man vilja ta upp en hel plats i bilen med en ytterligare likadan processor i ett robot-chassi, om man inte skall använda något av den funktionalitet som roboten tillför?
/fth
Något kan väl roboten göra utanför bilen? Hålla paraplyet. Eller bara stå där och se futuristisk och cool ut? Verkar ju vara nog så viktigt.
Precis, då får man ju fördelen med en taxichaufför som kan lyfta in väskor, hjälpa handikappade på plats, torka upp spyor osv. Mycket bättre än Cybercab som därmed blir helt meningslös.
Som jag uttryckt förut så förstår jag inte varför man inte bara låter en robot lära sig köra bil så har man ju ett autonomt fordon. Om man kan lösa en autonom bil kan man ju använda precis samma mjukvara i en robot. Då behöver man ju inte bygga alla dessa nya bilar utan bara byta ut taxichauffören i befintliga bilar.
Att man hajpar bägge samtidigt får jag inte riktigt ihop.
Därför det är en dålig idé att ha en robot som gör allt. Det är samma anledning till att roboten aldrig kommer användas till att dammsuga med en ”vanlig” damsugare, eller klippa gräset med en gräsklippare. En robotdammsugare är mycket bättre på att dammsuga och en robotgräsklippare är bättre på att klippa gräset och mycket mycket billigare.