Autonoma fordon

Här diskuterar vi elektriska fordon av alla slag

Moderator: Redaktion

Fredrik j
Inlägg: 11071
Blev medlem: 06 jun 2019 21:23

Re: Autonoma fordon

Inlägg av Fredrik j »

RagWal skrev:
Jag uppfattar ordet LOVA som något tyngre än att säga att det "ska" ske men inser att jag har tydligen en avvikande uppfattning om ordets betydelse, inget annat. Jag överväger gärna den tolkningen och går vidare.
Man får ju försöka förstå hur omgivningen uppfattar vad man säger och säkerställa att det stämmer med vad man menar. HAr man svårt för det kan man ju fråga runt lite.
På Twitter kanske? "Har nu uppfattat mig som att era bilar kommer bli helt självkörande om ni köper FSD?"
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6544
Blev medlem: 30 aug 2019 19:30

Re: Autonoma fordon

Inlägg av spacecoin »

Nu har AutoX större flotta än Waymo:
"Alibaba-backed self-driving startup AutoX announced today that it has reached the 1,000-vehicle Robotaxi fleet milestone and opened a new Robotaxi operations center in San Francisco."

https://cnevpost.com/2022/02/09/alibaba ... -vehicles/
Användarvisningsbild
Jordad
Teslaägare
Inlägg: 1431
Blev medlem: 04 mar 2019 18:15

Re: Autonoma fordon

Inlägg av Jordad »

Maw skrev:
Det var just uttrycket "från bild till råa fotoner" som lät väkdigt konstigt, och ärligt talat helt orimligt. Tydligen så är det dortfarande tvärt om, fotoner till data (bild) som Tesla tänker använda sig av men utan bildbehandling i sensorn/kameran.

Jag förmodar att de menar att de tänker använda sensorns rådata direkt i FSD-mjukvaran utan att låta specialiserad hårdvara behandla datan först, alternativt att de kommer ha bildbehandlingshårdvara i sin systemdator som har kortare latency än den som finns tillgänglig i de kameror de använder, om det är kortare latency de är ute efter. Att bildbehandla i mjukvara låter dock ineffektivt så det borde handla om specialiserad hw.
Ingen bildbehandling utan råa fotoner eller råa elektroner från bildsensorn om man så vill. Det handlar om mycket mer än bara fördröjning utan mer om att tydligare se nyanser, se i motljus, i mörker, dimma m.m. Det innebär helt annan träningsdata än den man haft innan. Surround-video som man också håller på och implementera innebär också helt annan träningsdata så lämpligt tillfälle att genomföra det.
Maw
Teslaägare
Inlägg: 3361
Blev medlem: 18 nov 2020 06:35

Re: Autonoma fordon

Inlägg av Maw »

Jordad skrev:
Maw skrev:
Det var just uttrycket "från bild till råa fotoner" som lät väkdigt konstigt, och ärligt talat helt orimligt. Tydligen så är det dortfarande tvärt om, fotoner till data (bild) som Tesla tänker använda sig av men utan bildbehandling i sensorn/kameran.

Jag förmodar att de menar att de tänker använda sensorns rådata direkt i FSD-mjukvaran utan att låta specialiserad hårdvara behandla datan först, alternativt att de kommer ha bildbehandlingshårdvara i sin systemdator som har kortare latency än den som finns tillgänglig i de kameror de använder, om det är kortare latency de är ute efter. Att bildbehandla i mjukvara låter dock ineffektivt så det borde handla om specialiserad hw.
Ingen bildbehandling utan råa fotoner eller råa elektroner från bildsensorn om man så vill. Det handlar om mycket mer än bara fördröjning utan mer om att tydligare se nyanser, se i motljus, i mörker, dimma m.m. Det innebär helt annan träningsdata än den man haft innan. Surround-video som man också håller på och implementera innebär också helt annan träningsdata så lämpligt tillfälle att genomföra det.
När jag tänkt lite mer på uttrycket så blev det rimligare :)

Det hade varit lättare att förstå vad de menar om de sagt att de skulle gå från att använda behandlad till obehandlad sensordata vilket det hela handlar om, men det hade väl inte låtit lika fräckt :)
Polestar 2 Launch Edition med acc boost -21
Model Y LR -22 (hos ex-frun)
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6544
Blev medlem: 30 aug 2019 19:30

Re: Autonoma fordon

Inlägg av spacecoin »

Det släpptes data från DMV i Kalifornien idag for 2021 som jag sammanställde:
AutoX rapporterar 8000 mil per disengagement.

MILES PER DISENGAGEMENT
--- 8000 mil per disengagement och nedåt
AUTOX TECHNOLOGIES INC 50108,00
CRUISE LLC 41719,27
DIDI RESEARCH AMERICA LLC 40744,67
ARGO AI LLC 36733,87
WERIDE CORP 19322,08
--- Under 3000 mil per disengagement
DEEPROUTE.AI 15436,00
PONY.AI INC. 14553,18
WAYMO LLC 7965,22
ZOOX INC 7386,90
--- Under 500 mil per disengagement
NURO INC 2569,57
APOLLO AUTONOMOUS DRIVING USA LLC 1467,50
AURORA OPERATIONS INC, 1405,23
QCRAFT INC, 1264,00
--- Under 100 mil per disengagement
LYFT 486,96
NVIDIA 341,51
GATIK AI INC. 320,67
MERCEDES-BENZ RESEARCH & DEVELOPMENT NORTH AMERICA INC. 215,49
--- Under 10 mil per disengement
TOYOTA RESEARCH INSTITUTE INC, 33,32
NISSAN NORTH AMERICA INC DBA ALLIANCE INNOVATION LAB 29,88
AIMOTIVE INC. 28,08
APPLE INC. 20,02
SF MOTORS INC. 14,34
QUALCOMM TECHNOLOGIES INC. 11,43
VALEO NORTH AMERICA INC. 1,64
EASYMILE 1,44
UDELV INC. 1,30

Det största skillnaden är Waymo som flyttat in i SF (från tester i Silicon Valley) och sjunkit från 30k (2020) -> 8k
Edit: Waymo säger att det i huvudsak beror på att man bytt bilar (till Jaguar).

Cruise framstår som ledaren och har ökat till 42k miles per disengagement (alltså ca 6800 mil per ingripande) trots svår miljö i SF.. AutoX:s och Didi:s siffror litar jag inte riktigt på men dom är helt klart i toppskiktet.

Det finns ingen fastställd metod utan alla kör sin egen så det är svårt att jämföra rakt av. Det är olika svåra test-miles på olika företag. Man får kika på det stora bilden.

Det verkar inte troligt att Apple släpper någon självkörande bil inom kort. De verkar ligga på ungefär samma nivå som Tesla. Jag gissar att FSD-betan ligger någonstans mellan 10-20 miles.
Senast redigerad av spacecoin, redigerad totalt 1 gånger.
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6544
Blev medlem: 30 aug 2019 19:30

Re: Autonoma fordon

Inlägg av spacecoin »

Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6544
Blev medlem: 30 aug 2019 19:30

Re: Autonoma fordon

Inlägg av spacecoin »

Jag tycker Chris Umson förklarar bra på 10 minuter varför flera sensor-typer och hd-maps kan vara värdefullt och ett mer effektivt sätt att komma till självkörning:
Användarvisningsbild
[JM]
Teslaägare
Inlägg: 1805
Blev medlem: 01 apr 2019 10:35

Re: Autonoma fordon

Inlägg av [JM] »



James Douma och Dr. Know-it-all pratar allmänt om AI och FSD
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6544
Blev medlem: 30 aug 2019 19:30

Re: Autonoma fordon

Inlägg av spacecoin »

[JM] skrev:

James Douma och Dr. Know-it-all pratar allmänt om AI och FSD
Kan du ta Elons narrativ utan att tänka? Ha ingen relevant bakgrund eller kunskap? Prata i 90 minuter? Grattis du kan jobba som YouTuber!
"Is vision-only the right approach? Oh yeah! Humans drive with two eyes"
"HD-maps is turning the car into a train. Hahaha, more like a roller coaster"...

"Dr Know it all" hävdade i en video för ett tag sedan att Tesla redan var Level 3 tekniskt. Det är så tråkigt att Tesla och andra ADAS-leverantörer säljer AV och levererar ADAS. Och sedan ekas detta av 'experter' i sociala medier. Inte under på att allmänheten har en skev uppfattning om vad som skiljer.

HD-kartor är som ett minne som löser massor av problem:


Vision-only self-driving är inte ett problem som kan lösas i dagsläget. Inte ens i teorin. HD-kartor är instrumentala att få upp reliabiliteten. Det är lättare att veta var trafikljusen är och endast lista ut färgen istället för att försöka gissa vad som är trafikljus eller väggmålning, vilket fil trafikljusen hör till och sedan lista ut om det är grönt eller rött. Varje gång man kommer till den korsningen.

Lidar löser verkliga problem. Imaging radar löser verkliga problem. Bättre kameror, fler kameror löser verkliga problem. Parallella stacker ger fler 9:or. Ja det är så enkelt. Och den enkla förklaringen är att Tesla inte gör något av detta för att det kostar pengar. Vilket skär i marginalerna per bil, och ändå inte räcker till riktig själv-körning i stor ODD som man lovat. Ledarna har kanske 2000x gånger Teslas prestanda och dom kör fortfarande med säkerhetsförare förutom mitt i natten och i låga hastigheter. Det är där landet ligger.
Användarvisningsbild
RagWal
Teslaägare
Inlägg: 1215
Blev medlem: 06 dec 2018 19:29
Referralkod: ts.la/ragnar71607

Re: Autonoma fordon

Inlägg av RagWal »

spacecoin skrev:
Vision-only self-driving är inte ett problem som kan lösas i dagsläget. Inte ens i teorin. HD-kartor är instrumentala att få upp reliabiliteten. Det är lättare att veta var trafikljusen är och endast lista ut färgen istället för att försöka gissa vad som är trafikljus eller väggmålning, vilket fil trafikljusen hör till och sedan lista ut om det är grönt eller rött. Varje gång man kommer till den korsningen.
I dagsläget, inte ens teorin? :shock:

Det är ju såklart inte svart eller vitt och folk överdriver för att man tycker man ser sanningen.

Ren "vision-only" UTAN kartor är super hardcore. Bilen får hitta till destinationen själv. :lol: Inte ens Tesla gör så. Man har ju ruttplanering och även trafikinformation. Man kan väl absolut tänka sig att det kompletteras med mer info som avviker, tex direkt felaktig skyltning och annat tok. Fortsatt dock med arbetshypotesen "lätta kartor" och primärt visuell körning.

Sen är det en gråskala hela vägen bort till extrema HD-kartor där man kan se brevlådor och detaljer som kräver att specielle bilar kört innan och mätt upp. Såklart kör man inte bara efter detta men man ger det mer tyngd om man kommer från "det hållet".

För- och nackdelar med allt och olika huvudspår. Det är väl bra att alla inte tänker lika.
Även i praktiken.
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6544
Blev medlem: 30 aug 2019 19:30

Re: Autonoma fordon

Inlägg av spacecoin »

RagWal skrev:
I dagsläget, inte ens teorin? :shock:
Låt mig förtydliga: Jag tror inte att det går att få den säkerhet som krävs i dagsläget. Oavsett budget per bil eller mjukvaruteam, med vision-only ML e2e. Är det praktik eller teori? Om de praktiska gränserna för en budget är obegränsade så tycker jag att det är en teoretisk gräns i dagsläget som jag skrev.

Jag läste en bok där en person försökte få en robotdammsugare att minimera antalet istötningar. Då började den köra baklänges för att den inte hade sensorer där bak...

ML kan inte skilja ett trafikljus på en jacka, bil eller en vägg och ett riktigt trafikljus. Byt sedan ut "trafikljus" mot allt som är relevant i trafiken. Det finns inget resonemang i ML det finns bara sannolikheter. Och det finns för många avvikelser i verkliga världen för att våga riskera liv på ML:ens funktion. Och nu pratar vi bara perception.
RagWal skrev:
Sen är det en gråskala hela vägen bort till extrema HD-kartor där man kan se brevlådor och detaljer som kräver att specielle bilar kört innan och mätt upp. Såklart kör man inte bara efter detta men man ger det mer tyngd om man kommer från "det hållet".
En stor fördel med HD-kartor är metadata och inte bara en korrekt 3d-representation på millimetern. Man mappar upp bussfiler, trafikljusens koppling till körfält osv osv. Som Chris Umson säger: Kartorna är rätt 99% av fallen så varför inte ha det som indata? Varför inte ha flera "stacks" av olika sensorers tolkning då det är det billigaste sättet att komma till tillräckligt många 9:or? Man måste använda alla kryckor som finns om man ska komma någon vart.
RagWal skrev:
För- och nackdelar med allt och olika huvudspår. Det är väl bra att alla inte tänker lika. Även i praktiken.
Om man har som mål att komma till marknaden med ett autonomt fordon inom fem år så är det meningslöst att försöka göra som Tesla gör.

Om Tesla började använda HD-kartor skulle de antagligen kunna köra lika bra som MobilEye gör. Problemet är att inte det räcker till autonomi. Ingen enskild åtgärd som Tesla kan göra räcker. Det kostar för mycket pengar per bil och licenstagare att leverera vad man lovat.
Användarvisningsbild
RagWal
Teslaägare
Inlägg: 1215
Blev medlem: 06 dec 2018 19:29
Referralkod: ts.la/ragnar71607

Re: Autonoma fordon

Inlägg av RagWal »

spacecoin skrev:
ML kan inte skilja ett trafikljus på en jacka, bil eller en vägg och ett riktigt trafikljus. Byt sedan ut "trafikljus" mot allt som är relevant i trafiken. Det finns inget resonemang i ML det finns bara sannolikheter. Och det finns för många avvikelser i verkliga världen för att våga riskera liv på ML:ens funktion. Och nu pratar vi bara perception.
Jodå. Men det räcker inte med att bara se färgfälten. Den behöver se och rimligt väl "bedöma" armaturen, stolpen etc. Lära sig skillnad på riktigt trafikljus (hängande, stående, på vägg etc) och "fake" stolpe (papplåda, Ljuskälla eller bara färg). En människa kan också bli lurad av en seriös atrapp om man ska hårddra det. ML behöver bli tillräckligt duktig på detta.
spacecoin skrev:
En stor fördel med HD-kartor är metadata och inte bara en korrekt 3d-representation på millimetern. Man mappar upp bussfiler, trafikljusens koppling till körfält osv osv. Som Chris Umson säger: Kartorna är rätt 99% av fallen så varför inte ha det som indata? Varför inte ha flera "stacks" av olika sensorers tolkning då det är det billigaste sättet att komma till tillräckligt många 9:or? Man måste använda alla kryckor som finns om man ska komma någon vart.
Det jag vill få fram är att frågan (HD vs vision) är ju snarare vilken nivå på noggrannhet i kartorna som behövs viktat mot hur duktig vision-systemet är att avgöra det. Visst överlapp är lämpligt.

Överdådiga (super-duper-ultra) HD-kartor är fördyrande datahantering. När HD-karteligan blir bättre på vision kommer kravet på kartorna att minska. På samma vis som örnkolls-never been here before-vision är svårt/dyrt att nå och åtminstone light kartdata är en värdefull källa för att få säker och "planerad" körning.

Återigen har Tesla tagit ett strapå att man måste lösa sin vison oavsett.
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6544
Blev medlem: 30 aug 2019 19:30

Re: Autonoma fordon

Inlägg av spacecoin »

RagWal skrev:
ML behöver bli tillräckligt duktig på detta.
Precis. Men hur då? Du får inte ett resonerande system genom att bada det i mer data. Ingen vet hur. Ännu. Eller kanske någonsin.
RagWal skrev:
Det jag vill få fram är att frågan (HD vs vision)
Frågan är definitivt inte HD-maps eller vision. Det är att man behöver mer av allt för att lösa problemet. Fler parallella sensortyper, bättre kartor, mer compute, större träningsset osv osv.
RagWal skrev:
Överdådiga (super-duper-ultra) HD-kartor är fördyrande datahantering
Ja, det är det jag säger. Och det är därför Tesla inte gör det. Det skär i marginalerna.
RagWal skrev:
Återigen har Tesla tagit ett strapå att man måste lösa sin vison oavsett.
Min bild är att Tesla gör 'allt' så länge det inte kostar något extra per såld licens eller bil. T ex att byta ut kameror, lägga till Lidar, öka compute osv. Det gynnar kanske samhället på sikt på något vis, men knappast deras möjligheter att lösa självkörning (dvs utan mänsklig säkerhetsförare, L3+) i närtid.
Användarvisningsbild
[JM]
Teslaägare
Inlägg: 1805
Blev medlem: 01 apr 2019 10:35

Re: Autonoma fordon

Inlägg av [JM] »

spacecoin skrev:
[JM] skrev:

James Douma och Dr. Know-it-all pratar allmänt om AI och FSD
Kan du ta Elons narrativ utan att tänka? Ha ingen relevant bakgrund eller kunskap? Prata i 90 minuter? Grattis du kan jobba som YouTuber!
Om du sett lite andra videos med James när han går igenom Teslas NN i detalj och förklarar vad de olika delarna har för roll så kanske du skulle döma honom annorlunda.
Men vi kanske bara ska återgå till att lyssna på självlärda personer på något obskyrt teslaforum istället....
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6544
Blev medlem: 30 aug 2019 19:30

Re: Autonoma fordon

Inlägg av spacecoin »

[JM] skrev:
spacecoin skrev:
[JM] skrev:

James Douma och Dr. Know-it-all pratar allmänt om AI och FSD
Kan du ta Elons narrativ utan att tänka? Ha ingen relevant bakgrund eller kunskap? Prata i 90 minuter? Grattis du kan jobba som YouTuber!
Om du sett lite andra videos med James när han går igenom Teslas NN i detalj och förklarar vad de olika delarna har för roll så kanske du skulle döma honom annorlunda.
Men vi kanske bara ska återgå till att lyssna på självlärda personer på något obskyrt teslaforum istället....
Nej, vissa föredrar självlärda personer i YouTubes Tesla-bubbla, det är tydligt. Då kan man nöja sig med det och skatta åt hur dåliga de 15-20 ledande AV-företagen är som behöver "kryckor" som HD-kartor och Lidar. Utan att reflektera över att dom faktiskt kan köra autonomt och att Tesla inte är i närheten.

Jag vill inte att någon ska ta mina resonemang för sanning. Jag kan rekommendera böcker och källor utanför Tesla-sfären om ML om för de som vill lära dig något. Ett hett tips är dock att INTE begränsa sig till Elon Musk eller James Douma.

The Robot Brains-podden tycker jag är en bra start om man vill ha en bra mix av forskning och praktiska tillämpningar: https://www.therobotbrains.ai/

Var det något speciellt som du tyckte var bra i videon du länkade?

edit:
Fun fact: Det företag som hade flest miles per disengagement i Californien under 2021 (AutoX) fanns inte när Tesla började sälja FSD...
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6544
Blev medlem: 30 aug 2019 19:30

Re: Autonoma fordon

Inlägg av spacecoin »



We present Block-NeRF, a variant of Neural Radiance Fields that can represent large-scale environments. Specifically, we demonstrate that when scaling NeRF to render city-scale scenes spanning multiple blocks, it is vital to decompose the scene into individually trained NeRFs. This decomposition decouples rendering time from scene size, enables rendering to scale to arbitrarily large environments, and allows per-block updates of the environment. We adopt several architectural changes to make NeRF robust to data captured over months under different environmental conditions. We add appearance embeddings, learned pose refinement, and controllable exposure to each individual NeRF, and introduce a procedure for aligning appearance between adjacent NeRFs so that they can be seamlessly combined. We build a grid of Block-NeRFs from 2.8 million images to create the largest neural scene representation to date, capable of rendering an entire neighborhood of San Francisco.

https://waymo.com/research/block-nerf/

NeRF (Neural Radiance Fields) är ett sätt att göra 360-vyer från ett begränsat antal bilder kring objektet med hjälp av ML:
https://www.matthewtancik.com/nerf


Det blir ju grymt när Google Maps byter till Block-NeRF för Street View! :D

Waymo använder detta för att snabbt bygga simuleringar i San Francisco för att träna och testa Waymo Driver.

Från rapporten:
Reconstructing large-scale environments enables several important use-cases in domains such as autonomous driving [32,44,68] and aerial surveying [14,35]. One example is mapping, where a high-fidelity map of the entire operating domain is created to act as a powerful prior for a variety of problems, including robot localization, navigation, and collision avoidance. Furthermore, large-scale scene reconstructions can be used for closed-loop robotic simulations [13]. Autonomous driving systems are commonly evaluated by re-simulating previously encountered scenarios; however, any deviation from the recorded encounter may change the vehicle’s trajectory, requiring high-fidelity novel view renderings along the altered path. Beyond basic view synthesis, scene conditioned NeRFs are also capable of changing environmental lighting conditions such as camera exposure, weather, or time of day, which can be used to further augment simulation scenarios.
Användarvisningsbild
RagWal
Teslaägare
Inlägg: 1215
Blev medlem: 06 dec 2018 19:29
Referralkod: ts.la/ragnar71607

Re: Autonoma fordon

Inlägg av RagWal »

spacecoin skrev:
RagWal skrev:
ML behöver bli tillräckligt duktig på detta.
Precis. Men hur då? Du får inte ett resonerande system genom att bada det i mer data. Ingen vet hur. Ännu. Eller kanske någonsin.
"Ingen vet hur. Ännu. Eller kanske någonsin."? Missförstår jag dig eller busar du? Hyfsat ordinärt problem skulle jag påstå. Att skilja en katt från en hund på bild kan ju ett ML-system göra sen flera år tillbaka. Soptunnor från brevlådor är ju ett mer nära exempel.

Att skilja ett trafikljus från tre färgglada punkter på ett plakat går med hyfsat god sannolikhet. Eftersom det är rörlig video så kan man när man kommer närmare "se" dess form. Såklart är en människa ännu bättre på att skilja ett fake-trafikljus från ett riktigt, men det finns ju gråzoner även för det.

Jag har fått inbromsning vid röd signal för tåg. Klarastrandsleden i Stockholm och nånstans vid Bräcke (tror jag). På båda ställen går tåg nära vägen. Går säkert att filtrera bort med rimligt enkel logik pga deras placering i förhållande till vägen.

Finns andra problem som är svårare då.
Användarvisningsbild
Jordad
Teslaägare
Inlägg: 1431
Blev medlem: 04 mar 2019 18:15

Re: Autonoma fordon

Inlägg av Jordad »

spacecoin skrev:
We present Block-NeRF, a variant of Neural Radiance Fields that can represent large-scale environments.
Andrej Karpathy har twittrat mycket om det här sedan något år tillbaka. Teslas strategi bygger på liknande teknologi. Andrej är bra att följa om man är intresserad av autonomi: https://twitter.com/karpathy?t=SYYooalm ... LYU3g&s=09
Användarvisningsbild
Jordad
Teslaägare
Inlägg: 1431
Blev medlem: 04 mar 2019 18:15

Re: Autonoma fordon

Inlägg av Jordad »

RagWal skrev:
"Ingen vet hur. Ännu. Eller kanske någonsin."? Missförstår jag dig eller busar du? Hyfsat ordinärt problem skulle jag påstå. Att skilja en katt från en hund på bild kan ju ett ML-system göra sen flera år tillbaka. Soptunnor från brevlådor är ju ett mer nära exempel.

Att skilja ett trafikljus från tre färgglada punkter på ett plakat går med hyfsat god sannolikhet. Eftersom det är rörlig video så kan man när man kommer närmare "se" dess form. Såklart är en människa ännu bättre på att skilja ett fake-trafikljus från ett riktigt, men det finns ju gråzoner även för det.

Jag har fått inbromsning vid röd signal för tåg. Klarastrandsleden i Stockholm och nånstans vid Bräcke (tror jag). På båda ställen går tåg nära vägen. Går säkert att filtrera bort med rimligt enkel logik pga deras placering i förhållande till vägen.

Finns andra problem som är svårare då.
Ja det här handlar bara om träningsdata vilket är ett enkelt men tidskrävande problem.
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6544
Blev medlem: 30 aug 2019 19:30

Re: Autonoma fordon

Inlägg av spacecoin »

Jordad skrev:
spacecoin skrev:
We present Block-NeRF, a variant of Neural Radiance Fields that can represent large-scale environments.
Andrej Karpathy har twittrat mycket om det här sedan något år tillbaka. Teslas strategi bygger på liknande teknologi. Andrej är bra att följa om man är intresserad av autonomi: https://twitter.com/karpathy?t=SYYooalm ... LYU3g&s=09
Det är klart jag följer AK på Twitter. Tesla pratade om NeRF på AI-day om jag inte minns fel. Alla och deras mamma använder NeRF sedan forskningen publicerades 2020. Det som var nytt är var det som skrevs i Google Research-publiceringen: metoden att sy ihop dem (ny) och att simulera olika förhållanden (inte nytt per se, men kanske metoden) t ex.

Edit:. Jag skrev det inte, men det är ju även så att dom som kom på NeRF till att börja med var Google Research. Det är kul för Tesla att Google delar med sig. Tesla lade inte särskilt mycket vikt vid simulering före 2020. Tensorflow och PyTorch som alla använder idag är ju från Google respektive Meta.
Senast redigerad av spacecoin, redigerad totalt 2 gång.
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6544
Blev medlem: 30 aug 2019 19:30

Re: Autonoma fordon

Inlägg av spacecoin »

RagWal skrev:
spacecoin skrev:
RagWal skrev:
ML behöver bli tillräckligt duktig på detta.
Precis. Men hur då? Du får inte ett resonerande system genom att bada det i mer data. Ingen vet hur. Ännu. Eller kanske någonsin.
"Ingen vet hur. Ännu. Eller kanske någonsin."? Missförstår jag dig eller busar du? Hyfsat ordinärt problem skulle jag påstå. Att skilja en katt från en hund på bild kan ju ett ML-system göra sen flera år tillbaka. Soptunnor från brevlådor är ju ett mer nära exempel.

Att skilja ett trafikljus från tre färgglada punkter på ett plakat går med hyfsat god sannolikhet. Eftersom det är rörlig video så kan man när man kommer närmare "se" dess form. Såklart är en människa ännu bättre på att skilja ett fake-trafikljus från ett riktigt, men det finns ju gråzoner även för det.

Jag har fått inbromsning vid röd signal för tåg. Klarastrandsleden i Stockholm och nånstans vid Bräcke (tror jag). På båda ställen går tåg nära vägen. Går säkert att filtrera bort med rimligt enkel logik pga deras placering i förhållande till vägen.

Finns andra problem som är svårare då.
Det är klart det inte är omöjligt att köra utan HD-kartor och ja, det är klart att det finns svårare problem än att hitta trafikljus, läsa av dem korrekt, och förstår vilken fil de hör till. Det var bara ett exempel på något som HD-kartor kan bidra med att ÖKA SÄKERHETSGRADEN i bedömningen genom att skära ned problemet till ett mindre komplicerat problem. Crowd-sourcade HD-kartor kan innehålla annan information som t ex genomsnittlig hastighet på varje meter väg, vilken väg folk normalt sett åker (inte i bussfiler, inte på light-rail) osv osv.

Ett NN-system kan träna på hundra miljoner bilder på djur och ändå klassificera en katt i ett träd som en fågel eller alla bilder som innehåller en regnbåge som giraffer. Det kan vara svårt att upptäcka.

Jag anser att man är fruktansvärt naiv om man tror några miljoner 10s videoklipp kan ge ett dataset som är säkert nog kör att representera vad som kan hända när man kör i t ex USA på ett sånt sätt att man kan göra L4 av det trots att problemet i princip kan uttryckas som "kör där man kan köra, följ trafikregler och kör inte på något".

Man behöver ett dataset som sannolikt är flera hundra "orders-of-magnitude" mindre om man t ex begränsar sin ODD till en stad/stadsdel, använder bättre indata (Waymo har 29 kameror per bil), använder hd-kartor, använder flera parallella system för att få upp säkerheten (imaging radar, lidar, kameror), till exempel.

Frågan det kokar ned till är om det är möjligt att få ihop det där perfekta datasettet och NN-lösningar så man är så säker på att inte folk dör. Går det över huvudtaget, inom rimlig tid och till rimlig kostnad eller ej. Jag tror nej tills vidare på alla tre: kostnad, tid, över huvudtaget.

Sedan har vi Teslas praktiska problem med bland annat en NN-arkitektur som inte funkar ännu för rätt triviala fall (och vill köra in i cyklister, forgängare, eller annat, väljer fel hastighet). Dom har för lite compute, sensorer som inte är adekvata under vissa förhållanden som t ex låg sol, suboptimal sensorplacering, säkra avståndsbedömningar, och säkert hundra andra saker som dom brottas med.

Hade det bara varit en fråga om att slänga på mer träningsdata så tror jag vi hade sett större förbättring de senaste 15 månaderna.
Användarvisningsbild
[JM]
Teslaägare
Inlägg: 1805
Blev medlem: 01 apr 2019 10:35

Re: Autonoma fordon

Inlägg av [JM] »

spacecoin skrev:
RagWal skrev:
spacecoin skrev:
RagWal skrev:
ML behöver bli tillräckligt duktig på detta.
Precis. Men hur då? Du får inte ett resonerande system genom att bada det i mer data. Ingen vet hur. Ännu. Eller kanske någonsin.
"Ingen vet hur. Ännu. Eller kanske någonsin."? Missförstår jag dig eller busar du? Hyfsat ordinärt problem skulle jag påstå. Att skilja en katt från en hund på bild kan ju ett ML-system göra sen flera år tillbaka. Soptunnor från brevlådor är ju ett mer nära exempel.

Att skilja ett trafikljus från tre färgglada punkter på ett plakat går med hyfsat god sannolikhet. Eftersom det är rörlig video så kan man när man kommer närmare "se" dess form. Såklart är en människa ännu bättre på att skilja ett fake-trafikljus från ett riktigt, men det finns ju gråzoner även för det.

Jag har fått inbromsning vid röd signal för tåg. Klarastrandsleden i Stockholm och nånstans vid Bräcke (tror jag). På båda ställen går tåg nära vägen. Går säkert att filtrera bort med rimligt enkel logik pga deras placering i förhållande till vägen.

Finns andra problem som är svårare då.
Det är klart det inte är omöjligt att köra utan HD-kartor och ja, det är klart att det finns svårare problem än att hitta trafikljus, läsa av dem korrekt, och förstår vilken fil de hör till. Det var bara ett exempel på något som HD-kartor kan bidra med att ÖKA SÄKERHETSGRADEN i bedömningen genom att skära ned problemet till ett mindre komplicerat problem. Crowd-sourcade HD-kartor kan innehålla annan information som t ex genomsnittlig hastighet på varje meter väg, vilken väg folk normalt sett åker (inte i bussfiler, inte på light-rail) osv osv.

Ett NN-system kan träna på hundra miljoner bilder på djur och ändå klassificera en katt i ett träd som en fågel eller alla bilder som innehåller en regnbåge som giraffer. Det kan vara svårt att upptäcka.

Jag anser att man är fruktansvärt naiv om man tror några miljoner 10s videoklipp kan ge ett dataset som är säkert nog kör att representera vad som kan hända när man kör i t ex USA på ett sånt sätt att man kan göra L4 av det trots att problemet i princip kan uttryckas som "kör där man kan köra, följ trafikregler och kör inte på något".

Man behöver ett dataset som sannolikt är flera hundra "orders-of-magnitude" mindre om man t ex begränsar sin ODD till en stad/stadsdel, använder bättre indata (Waymo har 29 kameror per bil), använder hd-kartor, använder flera parallella system för att få upp säkerheten (imaging radar, lidar, kameror), till exempel.

Frågan det kokar ned till är om det är möjligt att få ihop det där perfekta datasettet och NN-lösningar så man är så säker på att inte folk dör. Går det över huvudtaget, inom rimlig tid och till rimlig kostnad eller ej. Jag tror nej tills vidare på alla tre: kostnad, tid, över huvudtaget.

Sedan har vi Teslas praktiska problem med bland annat en NN-arkitektur som inte funkar ännu för rätt triviala fall (och vill köra in i cyklister, forgängare, eller annat, väljer fel hastighet). Dom har för lite compute, sensorer som inte är adekvata under vissa förhållanden som t ex låg sol, suboptimal sensorplacering, säkra avståndsbedömningar, och säkert hundra andra saker som dom brottas med.

Hade det bara varit en fråga om att slänga på mer träningsdata så tror jag vi hade sett större förbättring de senaste 15 månaderna.
När man är 18 År gammal kan ma ta körkort i sverige. Då har man upplevt 18*365*24*60*60/10=56764800 dvs ca 60 miljoner 10 sekunders intervaller.
Nu har jag räknat med att man är vaken under hela denna period så egentligen borde man dra bort en tredjedel pga 8h sömn per dygn.
Det krävs alltså ca 40-60miljoner 10s klipp för att NN i vår hjärna ska lära sig köra bil.
Det inkulderar även AGI för övrigt.
Användarvisningsbild
spacecoin
Teslaägare
Inlägg: 6544
Blev medlem: 30 aug 2019 19:30

Re: Autonoma fordon

Inlägg av spacecoin »

[JM] skrev:
När man är 18 År gammal kan ma ta körkort i sverige. Då har man upplevt 18*365*24*60*60/10=56764800 dvs ca 60 miljoner 10 sekunders intervaller.
Nu har jag räknat med att man är vaken under hela denna period så egentligen borde man dra bort en tredjedel pga 8h sömn per dygn.
Det krävs alltså ca 40-60miljoner 10s klipp för att NN i vår hjärna ska lära sig köra bil.
Det inkulderar även AGI för övrigt.
Jag vet inte riktigt vad du är ute efter. Men det tar faktiskt under 100 timmar totalt att lära en tonåring att köra en bil säkert nog att man kan ge hen ett körkort. Det säger en del om skillnaden mellan ML och människans förmåga. Som människa behöver man inte ha sett alla situationer i världen för att kunna klara av det mesta. Som människa VET man vad som kan hända eftersom en människa kan resonera. Det kan inte ett ML-program.

AlphaZero vinner alltid i schack mot människor men den förstår inte koncept som att en löpare bara får gå diagonalt. ML är brute-force-metod att lösa problem som är för svåra för konventionell programmering. Det är inte frågan om någon som helst "intelligens".

GPT-3 förstår inte språk eller kontext bara för att den kan med hög sannolikhet gissa vad vi ska säga för ord härnäst. https://www.technologyreview.com/2020/0 ... i-opinion/

Att kurera ett dataset som är representativt för "alla" saker som kan hända i ett större kontext än ett spel eller i ett språk är något som kanske tar så länge att verkligheten hinner ändras innnan man är klar.
Fredrik j
Inlägg: 11071
Blev medlem: 06 jun 2019 21:23

Re: Autonoma fordon

Inlägg av Fredrik j »

Tycker inte ni också det är lite lustigt att dom där kontrollfrågorna som ska säkerställa att man inte är en robot ofta innehåller trafikrelaterade situationer.

Exempel:
471152F6-0B82-492F-BA18-8C8E7A6C0D80.png
Användarvisningsbild
[JM]
Teslaägare
Inlägg: 1805
Blev medlem: 01 apr 2019 10:35

Re: Autonoma fordon

Inlägg av [JM] »

spacecoin skrev:
[JM] skrev:
När man är 18 År gammal kan ma ta körkort i sverige. Då har man upplevt 18*365*24*60*60/10=56764800 dvs ca 60 miljoner 10 sekunders intervaller.
Nu har jag räknat med att man är vaken under hela denna period så egentligen borde man dra bort en tredjedel pga 8h sömn per dygn.
Det krävs alltså ca 40-60miljoner 10s klipp för att NN i vår hjärna ska lära sig köra bil.
Det inkulderar även AGI för övrigt.
Jag vet inte riktigt vad du är ute efter. Men det tar faktiskt under 100 timmar totalt att lära en tonåring att köra en bil säkert nog att man kan ge hen ett körkort. Det säger en del om skillnaden mellan ML och människans förmåga. Som människa behöver man inte ha sett alla situationer i världen för att kunna klara av det mesta. Som människa VET vad som kan hända eftersom en människa kan resonera. Det kan inte ett ML-program.

AlphaZero vinner alltid i schack mot människor men den förstår inte koncept som att en löpare bara får gå diagonalt. ML är brute-force-metod att lösa problem som är för svåra för konventionell programmering. Det är inte frågan om någon som helst "intelligens".

GPT-3 förstår inte språk eller kontext bara för att den kan med hög sannolikhet gissa vad vi ska säga för ord härnäst. https://www.technologyreview.com/2020/0 ... i-opinion/

Att kurera ett dataset som är representativt för "alla" saker som kan hända är något som kanske tar så länge att verkligheten hinner ändras innnan man är klar.
Vår hjärna består av ett fixt/begränsat antal neuroner och synapser som under vår uppväxt lär sig "omvärlden".
Den bakgrundsinformationen gör att det bara räcker med dina påstådda 100 timmar för att lära en människa att köra bil.
Vad är det som säger att om man kan skapa ett NN med samma antal neuroner och synapser som vår hjärna och sedan utsätter det för 60miljoner 10 sekunders klipp med data , som då representerar en människas uppväxt, inte kan återskapa samma egenskaper?
Skriv svar