[JM] skrev:
Spacecoin skrev:
Jag anser att man är fruktansvärt naiv om man tror några miljoner 10s videoklipp kan ge ett dataset som är säkert nog kör att representera vad som kan hända när man kör i t ex USA på ett sånt sätt att man kan göra L4 av det trots att problemet i princip kan uttryckas som "kör där man kan köra, följ trafikregler och kör inte på något".
Min poäng var att om vi kan träna upp vårt eget NN med ungefär den datamängden så är det inte orimligt att tro att liknande storlek på datamängd men med fokus på självkörande bilar borde räcka till eftersom den problemrymden borde kräva ett avsevärt mindre NN än ett NN för generell intelligens som tex vi besitter.
Det vore ju underbart om det vore fallet, men det är tyvärr ett felaktigt antagande. Det spelar ingen roll hur många böcker man läser om man inte förstår innehållet. ML kan lära sig alla orden i Hamlet, utan att förstå poängen eller historien. Och sedan kan den i bästa fall skapa liknande, fast dåliga, berättelser i samma stil.
Det finns helt enkelt väldigt få likheter mellan hur ML och vår hjärna fungerar. Det är därför jag undviker att kalla något "AI". Det finns absolut ingen intelligens i dagens "AI-system". Mönster-igenkännare är mer rättvist men inte lika bra för marknadsavdelningen.
NLP är ett område där AI/ML är bra för, då det är varken tids- eller säkerhetskritiskt.
Du kan läsa om GPT-3 här:
https://en.wikipedia.org/wiki/GPT-3
https://www.technologyreview.com/2020/0 ... i-opinion/
"You also shouldn’t trust GPT-3 to give you advice about mixing drinks or moving furniture, to explain the plot of a novel to your child, or to help you figure out where you put your laundry; it might get your math problem right, but it might not. It’s a fluent spouter of bullshit, but even with 175 billion parameters and 450 gigabytes of input data, it’s not a reliable interpreter of the world."