Mark Rober testar: Kamera vs. Lidar…
Postat: 16 mar 2025 21:40
Det är ju lite löjligt test. Alla fattar ju väl vid detta laget att kameror inte fattar om de ser en skylt på en buss, järnväg eller en riktig skylt. Computer vision är bra men inte säkert nog för att riskera liv.fth skrev: ↑16 mar 2025 23:44Jag gillar Mark Rober, men den här videon känns suspekt.
Rätta mig gärna om jag har fel, men såvitt jag kan se så är det uppenbart vid 15:30, 15:42 och andra tillfällen att han inte har autopilot på när han kör igenom väggen.
Jag antar att detta kommer stötas och blötas en hel del den närmaste tiden, men jag tycker det är lite Dan O'Dowd-varning över detta...
Det kan ses som konsumentupplysning också. Det är fortfarande många som tror att det går att göra en lika säker lösning enbart baserat på kameror. Det finns t o m en ansenlig mängd människor som fortfarande på allvar tror att Tesla ska kunna åstadkomma FSD/robotaxi med enbart kameror…
Jag tror inte det skulle hjälpa nämnvärt i detta fall. Stereo-seende med CV har fortfarande samma grundläggande problem - det är uppskattningar med AI - och därmed samma failure modes. Stereo ökar säkerheten i uppskattningarna en del dock givet att det finns referensobjekt i scenen och att kamerorna är placerade en bit i från varandra för trianguleringen (t ex a-stolpe och backspegel).Gustafsson skrev: ↑17 mar 2025 07:07Om Tesla använde fler än en kamera framåt för djupbedömning framåt, så skulle det gå bättre i testet ovan.
Exakt.spacecoin skrev: ↑17 mar 2025 07:53Jag tror inte det skulle hjälpa nämnvärt i detta fall. Stereo-seende med CV har fortfarande samma grundläggande problem - det är uppskattningar med AI - och därmed samma failure modes. Stereo ökar säkerheten i uppskattningarna en del dock givet att det finns referensobjekt i scenen och att kamerorna är placerade en bit i från varandra för trianguleringen (t ex a-stolpe och backspegel).Gustafsson skrev: ↑17 mar 2025 07:07Om Tesla använde fler än en kamera framåt för djupbedömning framåt, så skulle det gå bättre i testet ovan.
Du har helt rätt, testet är löjlig.spacecoin skrev: ↑16 mar 2025 23:49Det är ju lite löjligt test. Alla fattar ju väl vid detta laget att kameror inte fattar om de ser en skylt på en buss, järnväg eller en riktig skylt. Computer vision är bra men inte säkert nog för att riskera liv.fth skrev: ↑16 mar 2025 23:44Jag gillar Mark Rober, men den här videon känns suspekt.
Rätta mig gärna om jag har fel, men såvitt jag kan se så är det uppenbart vid 15:30, 15:42 och andra tillfällen att han inte har autopilot på när han kör igenom väggen.
Jag antar att detta kommer stötas och blötas en hel del den närmaste tiden, men jag tycker det är lite Dan O'Dowd-varning över detta...
Den som tror att en dator ska se den här målade "väggen" eller att kameror ska börja se genom rök behöver fundera ett varv till. Det är fysiskt omöjligt.
Han har AP på enligt de diskussioner jag läst. Folk argumenterar på allvar för att det inte är FSD med senaste version så funkar det inte...![]()
Men hela grejen är ju att kameror inte är lika säkra som fysisk avståndsmätning för varken AEB eller annat. Det krävs detaljerad kartdata och multimodal sensing för att kunna ta bort föraren ur loopen i minst fem år till.
Nu gissar ni ju rätt vilt! Väldigt vitt isär? Det tror jag inte på. Man behöver kunna bestämma djup inom ett område där bilen har chans att bromsa, det är inte så långt framåt. På sin tid var ju xbox kinect lite intressant och användes experimentellt en del. Nu när det kommer kameror som sitter lågt fram på bilen får man dessutom rätt stort avstånd mellan dem. Dagens kameror är ju dessutom nästan överdrivet högupplösande, så jag vågar påstå att man kan få användbar stereoskopi med de som finns om man vill.AAKEE skrev: ↑17 mar 2025 08:49Exakt.spacecoin skrev: ↑17 mar 2025 07:53Jag tror inte det skulle hjälpa nämnvärt i detta fall. Stereo-seende med CV har fortfarande samma grundläggande problem - det är uppskattningar med AI - och därmed samma failure modes. Stereo ökar säkerheten i uppskattningarna en del dock givet att det finns referensobjekt i scenen och att kamerorna är placerade en bit i från varandra för trianguleringen (t ex a-stolpe och backspegel).Gustafsson skrev: ↑17 mar 2025 07:07Om Tesla använde fler än en kamera framåt för djupbedömning framåt, så skulle det gå bättre i testet ovan.
Två kameror ger möjlighet till beräkning av avståndet till objektet (aka ”3D”). Kamerorna skulle dessutom behöva sitta väldigt vitt isär för att få bra möjlighet att räkna fram avståndet på längre håll.
Teslan har ju inte haft några problem att bedöma avståndet just i detta fall (även om den har det IRL ibland.) Teslas problem ligger i begränsningen av vad kameror kan göra.
Teslas problem med borttagen radar är att det inte finns något system som kan mäta avstånd till hinder objektivt (LIDAR/RADAR) och därmed inte upptäcka de hinder som bilen inte förstår/ klarar att se med kameror.
Jag har jobbat en del med mjukvaruutveckling inom sensorfusion (för 25 år sedan). Det är inget problem att hantera data från flera sensorer och kombinera till ett bra resultat, datorerna i dagens bilar är definitivt tillräckligt kraftfulla. Att det skulle ge ett sämre beslutsunderlag med fler sensorer är bara ytterligare en av Elons lögner för att motivera sitt val att ta bort radarn. Alternativt är Teslas utvecklingsavdelning fullkomligt inkompetenta inom området sensorfusion.Lurence skrev: ↑17 mar 2025 10:51Sensorer är bra på olika saker. Lidar ser saker kameror inte gör, det är fakta och inget som bör tvivlas på. Jag tror dock på att det inte går att kombinera alldeles för många olika typer av sensorer, blir för mycket för bilen att hantera datamässigt. Bilarna kommer ta fel beslut och att kosta för mycket. Då är det bättre att få ut ett system som t.ex. Teslas FSD utan att det ska hittas varenda litet fall där någon annan sensor hade sett mer. Det viktiga blir att det i grunden räddar liv. Sen ska vi självklart inte sluta utveckla, då framtiden alltid kan hitta nya lösningar.
Min bil drar ned hastigheten ofta, utan att det är speciellt dålig sikt, vanligen bara några sekunder men ibland längre tid eller så är farthållaren inte tillgänglig alls. Det kan räcka med att man kör in i eller ut ur en tunnel.Lurence skrev: ↑17 mar 2025 10:51Du har helt rätt, testet är löjlig.spacecoin skrev: ↑16 mar 2025 23:49Det är ju lite löjligt test. Alla fattar ju väl vid detta laget att kameror inte fattar om de ser en skylt på en buss, järnväg eller en riktig skylt. Computer vision är bra men inte säkert nog för att riskera liv.fth skrev: ↑16 mar 2025 23:44Jag gillar Mark Rober, men den här videon känns suspekt.
Rätta mig gärna om jag har fel, men såvitt jag kan se så är det uppenbart vid 15:30, 15:42 och andra tillfällen att han inte har autopilot på när han kör igenom väggen.
Jag antar att detta kommer stötas och blötas en hel del den närmaste tiden, men jag tycker det är lite Dan O'Dowd-varning över detta...
Den som tror att en dator ska se den här målade "väggen" eller att kameror ska börja se genom rök behöver fundera ett varv till. Det är fysiskt omöjligt.
Han har AP på enligt de diskussioner jag läst. Folk argumenterar på allvar för att det inte är FSD med senaste version så funkar det inte...![]()
Men hela grejen är ju att kameror inte är lika säkra som fysisk avståndsmätning för varken AEB eller annat. Det krävs detaljerad kartdata och multimodal sensing för att kunna ta bort föraren ur loopen i minst fem år till.
Om du vill åka i nästan 70 km/h genom ett regnoväder med den där intensiteten med lidar så tror jag det är det sista du gör.
Vattenplaning efter 5 sekunder, oavsett om du sett ett hinder eller inte. Här visar de alltså att lidar också gör fel val, oavsett om den tycker att den kan se ett hinder inne i regnet eller inte så ska inte någon bil köra rakt igenom det där med full fart.
Teslas AP har rätt så länge när vädret blir dåligt börjat sänka hastigheten. Många tycker för tidigt. Detta fungerar ju då enbart om man kör en liten stund i regnet. Inte när man kommer från soliga förhållanden rakt in i en vattenkanon och vill att systemet ska ta beslut om dålig sikt och i samma millisekund bromsa för ett hinder. Om jag hade kommit emot ett sådant lokalt regn så hoppas jag att min bil oavsett kameror, lidar, radar eller jag själv istället helt hade stannat. Vilket jag i detta fall tror att FSD hade gjort, men det är enbart min egna åsikt.
Som jag ser det, för att få självkörande bilar på vägarna så är det inte att de ska vara 100x säkrare än människor som ska vara kravet. Då kommer de aldrig att komma ut. Det ska vara att de kör lika bra som en människa och kan göra det 100 % tiden. Människor kör aldrig på sin toppnivå konstant, troligtvis mindre tid än vad man vill förstå, alltid något som distraherar. Då kommer vi att börja rädda liv.
Om bilarna ska köra i full hastighet i dimma, hårt regn, mörker etc. då de har sensorer som ser. Då kommer man behöva sluta ha rutor på bilarna, för det kommer inte vara någon som vill åka i dem om de ser förhållandena bilen tar sig fram i.
Sensorer är bra på olika saker. Lidar ser saker kameror inte gör, det är fakta och inget som bör tvivlas på. Jag tror dock på att det inte går att kombinera alldeles för många olika typer av sensorer, blir för mycket för bilen att hantera datamässigt. Bilarna kommer ta fel beslut och att kosta för mycket. Då är det bättre att få ut ett system som t.ex. Teslas FSD utan att det ska hittas varenda litet fall där någon annan sensor hade sett mer. Det viktiga blir att det i grunden räddar liv. Sen ska vi självklart inte sluta utveckla, då framtiden alltid kan hitta nya lösningar.
Bevisligen så har de kommit fram till att HW3 inte är tillräckligt kraftfull för att klara av enbart vision med FSD 13, så någonstans så finns det definitivt ett problem med hur kraftfulla datorerna måste vara. Om man skulle lägga till fler sensorer på detta borde problemet öka. Här samtidigt så börjar bilen också dra mer energi vilket är ett problem för räckvidden.Maw skrev: ↑17 mar 2025 11:22Jag har jobbat en del med mjukvaruutveckling inom sensorfusion (för 25 år sedan). Det är inget problem att hantera data från flera sensorer och kombinera till ett bra resultat, datorerna i dagens bilar är definitivt tillräckligt kraftfulla. Att det skulle ge ett sämre beslutsunderlag med fler sensorer är bara ytterligare en av Elons lögner för att motivera sitt val att ta bort radarn. Alternativt är Teslas utvecklingsavdelning fullkomligt inkompetenta inom området sensorfusion.Lurence skrev: ↑17 mar 2025 10:51Sensorer är bra på olika saker. Lidar ser saker kameror inte gör, det är fakta och inget som bör tvivlas på. Jag tror dock på att det inte går att kombinera alldeles för många olika typer av sensorer, blir för mycket för bilen att hantera datamässigt. Bilarna kommer ta fel beslut och att kosta för mycket. Då är det bättre att få ut ett system som t.ex. Teslas FSD utan att det ska hittas varenda litet fall där någon annan sensor hade sett mer. Det viktiga blir att det i grunden räddar liv. Sen ska vi självklart inte sluta utveckla, då framtiden alltid kan hitta nya lösningar.
Det krävs ingen AI för att genomföra sensorfusion. Beräkningskraften som krävs för att använda avståndsbedömningen från en radar är minimal medan samma funktion från kamerabilder kräver oändligt mycket mer datorkraft. så om man vill minska belastningen på bilens dator så borde man prioritera radar. Sensorfusionen kräver förhållandevis lite beräkningskraft.Lurence skrev: ↑17 mar 2025 12:19Bevisligen så har de kommit fram till att HW3 inte är tillräckligt kraftfull för att klara av enbart vision med FSD 13, så någonstans så finns det definitivt ett problem med hur kraftfulla datorerna måste vara. Om man skulle lägga till fler sensorer på detta borde problemet öka. Här samtidigt så börjar bilen också dra mer energi vilket är ett problem för räckvidden.Maw skrev: ↑17 mar 2025 11:22Jag har jobbat en del med mjukvaruutveckling inom sensorfusion (för 25 år sedan). Det är inget problem att hantera data från flera sensorer och kombinera till ett bra resultat, datorerna i dagens bilar är definitivt tillräckligt kraftfulla. Att det skulle ge ett sämre beslutsunderlag med fler sensorer är bara ytterligare en av Elons lögner för att motivera sitt val att ta bort radarn. Alternativt är Teslas utvecklingsavdelning fullkomligt inkompetenta inom området sensorfusion.Lurence skrev: ↑17 mar 2025 10:51Sensorer är bra på olika saker. Lidar ser saker kameror inte gör, det är fakta och inget som bör tvivlas på. Jag tror dock på att det inte går att kombinera alldeles för många olika typer av sensorer, blir för mycket för bilen att hantera datamässigt. Bilarna kommer ta fel beslut och att kosta för mycket. Då är det bättre att få ut ett system som t.ex. Teslas FSD utan att det ska hittas varenda litet fall där någon annan sensor hade sett mer. Det viktiga blir att det i grunden räddar liv. Sen ska vi självklart inte sluta utveckla, då framtiden alltid kan hitta nya lösningar.
Nu är jag inte mjukvaruutvecklare, men har svårt att se att inte en stor del av jobbet när det läggs på fler sensorer är att försöka lösa hur bruset ska reduceras från respektive sensor för att sedan kunna transformera det för att få ut data som går att analysera. Med AI i dessa steg så kan det bli bättre, men utan att transformera datan till något som kan läggas ihop så kan de inte köras tillsammans men vid varje transformation tappar man data och möjligtvis kvalité. Desto mer data är med andra ord inte alltid bättre.
Valet att inte ha fler sensorer kan självklart vara ett dåligt val och Elon vägrar att backa, med hans personlighet skulle inte det vara orimligt. Men det kan lika gärna enbart vara politik från andra håll. Elon kapar av så många andra företag som inte får sälja sina produkter. Och om Tesla tillslut även lyckas så kommer alla andra biltillverkare kolla på varför de ska köpa in dem om inte konkurrenten behöver. Speciellt om det då är mycket billigare att bygga bilarna utan. Finns så mycket ekonomiskt incitament från andra håll att få Tesla att misslyckas, så det trycks ut hela tiden utan att se att Vision only i L2 format räddar liv och är säkrare i majoriteten av situationerna på vägarna just nu. Är det perfekt? Självklart inte.
Hade gärna sett någon svara mer på de andra styckena jag skrev, denna om sensorerna var mest för inte vara som nästan alla andra och inte kunna se de tekniska fördelarna med andra sidans argument också. Kan någon t.ex. att hålla med om att köra i 70 km/h med lidar genom den där regnintensiteten inte är något man bör eftersträva heller? Eller att man kan inse att lidar ser bättre, men att det i många tillämpningar kan vara okej att nöja sig ändå? Inte bara driva vidare på Teslas prestation. Jag ser definitivt att lidar är bättre på tillämpningar. Sen om det är lösningen är en annan fråga, men fortsatt så tror jag att man försöker dra det för långt. Det går alltid att göra något lite säkrare. Lägga till en sensor till etc.
Det behöver inte vara kraftig dimma för att FSD ska balla ur det räcker med lite låg sol. Ska taxin stanna under fyra timmar på morgon och kväll och/eller undvika uppförsbackar och tunnlar med?Lurence skrev: ↑17 mar 2025 15:11Åka på en 70-väg i kraftig dimma, fortsätta hålla 70 km/h på grund av att bilens lidar ser den mötande gångtrafikanten och håller ut, medans gångtrafikanten blir livrädd för att den inte ser dig och något helt plötsligt åker förbi i full fart.
Åka genom villakvarter i 50 km/h i mörker för att bilens lidar ser helt tydligt hela sin omgivning.
Fortsätta åka 110 km/h på motorvägen i tungt regn för att bilens lidar tydligt kan se avståndet till bilen framför.
Det går att fortsätta med exempel efter exempel såhär, där man kan se att tillämpningen av fler sensorer hjälper till men där bilen oavsett på grund av rådande omständigheter ska agera annorlunda. Sakta in för att anpassa sig efter förutsättningarna. Och då ge förutsättning till att i det här fallet vision only klarar av att upptäcka i tid. Dvs, samma förutsättning som en människa har idag men med 360 vy och 100 % fokus.
Jag förstår verkligen inte bilden alla har i att det är ett problem om en helt autonom taxi skulle välja att anpassa hastigheten, eller helt enkelt stanna vid sidan om vägen för att invänta rätt förutsättningar. Det är inte ett misslyckande, det är att agera som en människa och riskbedöma. Jag har varje år tillfällen där hastighet anpassas, eller där man tar en tidigare lunch för att låta ett regnoväder dra förbi. Bara för att bilarna kan börja köra själv så kommer vi inte ifrån de yttre elementen.
Jag är helt ointresserad av FSD, jag vill ha en bil/farthållare som håller samma hastighet som andra bilar på landsväg, istället för att sakta in så att andra bilar måste bromsa eller köra om. Det främjar inte trafiksäkerheten ett dugg.Lurence skrev: ↑17 mar 2025 15:11Åka på en 70-väg i kraftig dimma, fortsätta hålla 70 km/h på grund av att bilens lidar ser den mötande gångtrafikanten och håller ut, medans gångtrafikanten blir livrädd för att den inte ser dig och något helt plötsligt åker förbi i full fart.
Åka genom villakvarter i 50 km/h i mörker för att bilens lidar ser helt tydligt hela sin omgivning.
Fortsätta åka 110 km/h på motorvägen i tungt regn för att bilens lidar tydligt kan se avståndet till bilen framför.
Det går att fortsätta med exempel efter exempel såhär, där man kan se att tillämpningen av fler sensorer hjälper till men där bilen oavsett på grund av rådande omständigheter ska agera annorlunda. Sakta in för att anpassa sig efter förutsättningarna. Och då ge förutsättning till att i det här fallet vision only klarar av att upptäcka i tid. Dvs, samma förutsättning som en människa har idag men med 360 vy och 100 % fokus.
Jag förstår verkligen inte bilden alla har i att det är ett problem om en helt autonom taxi skulle välja att anpassa hastigheten, eller helt enkelt stanna vid sidan om vägen för att invänta rätt förutsättningar. Det är inte ett misslyckande, det är att agera som en människa och riskbedöma. Jag har varje år tillfällen där hastighet anpassas, eller där man tar en tidigare lunch för att låta ett regnoväder dra förbi. Bara för att bilarna kan börja köra själv så kommer vi inte ifrån de yttre elementen.
Nu visade väl detta test att just motljus inte var ett problem?spacecoin skrev: ↑17 mar 2025 15:20Det behöver inte vara kraftig dimma för att FSD ska balla ur det räcker med lite låg sol. Ska taxin stanna under fyra timmar på morgon och kväll och/eller undvika uppförsbackar och tunnlar med?Lurence skrev: ↑17 mar 2025 15:11Åka på en 70-väg i kraftig dimma, fortsätta hålla 70 km/h på grund av att bilens lidar ser den mötande gångtrafikanten och håller ut, medans gångtrafikanten blir livrädd för att den inte ser dig och något helt plötsligt åker förbi i full fart.
Åka genom villakvarter i 50 km/h i mörker för att bilens lidar ser helt tydligt hela sin omgivning.
Fortsätta åka 110 km/h på motorvägen i tungt regn för att bilens lidar tydligt kan se avståndet till bilen framför.
Det går att fortsätta med exempel efter exempel såhär, där man kan se att tillämpningen av fler sensorer hjälper till men där bilen oavsett på grund av rådande omständigheter ska agera annorlunda. Sakta in för att anpassa sig efter förutsättningarna. Och då ge förutsättning till att i det här fallet vision only klarar av att upptäcka i tid. Dvs, samma förutsättning som en människa har idag men med 360 vy och 100 % fokus.
Jag förstår verkligen inte bilden alla har i att det är ett problem om en helt autonom taxi skulle välja att anpassa hastigheten, eller helt enkelt stanna vid sidan om vägen för att invänta rätt förutsättningar. Det är inte ett misslyckande, det är att agera som en människa och riskbedöma. Jag har varje år tillfällen där hastighet anpassas, eller där man tar en tidigare lunch för att låta ett regnoväder dra förbi. Bara för att bilarna kan börja köra själv så kommer vi inte ifrån de yttre elementen.
En lidar kostar ett par tusingar. Vad är ens diskussionen? Det är ROI på fem minuter.
Jag tror ju att det av strikt affärsmässiga skäl lönar sig att lägga till en till sensor om du kan undvika ett dödsfall på en mörk väg ÄVEN om en människa hade gjort lika. Folk har inte empati för robotar. Kolla hur det gick för Cruise. Dom finns inte längre. Samma med Uber ATG. En allvarlig olycka räckte i bägge fallen för att ta kål på hela företaget/projektet...Lurence skrev: ↑17 mar 2025 15:33Nu visade väl detta test att just motljus inte var ett problem?spacecoin skrev: ↑17 mar 2025 15:20Det behöver inte vara kraftig dimma för att FSD ska balla ur det räcker med lite låg sol. Ska taxin stanna under fyra timmar på morgon och kväll och/eller undvika uppförsbackar och tunnlar med?Lurence skrev: ↑17 mar 2025 15:11Åka på en 70-väg i kraftig dimma, fortsätta hålla 70 km/h på grund av att bilens lidar ser den mötande gångtrafikanten och håller ut, medans gångtrafikanten blir livrädd för att den inte ser dig och något helt plötsligt åker förbi i full fart.
Åka genom villakvarter i 50 km/h i mörker för att bilens lidar ser helt tydligt hela sin omgivning.
Fortsätta åka 110 km/h på motorvägen i tungt regn för att bilens lidar tydligt kan se avståndet till bilen framför.
Det går att fortsätta med exempel efter exempel såhär, där man kan se att tillämpningen av fler sensorer hjälper till men där bilen oavsett på grund av rådande omständigheter ska agera annorlunda. Sakta in för att anpassa sig efter förutsättningarna. Och då ge förutsättning till att i det här fallet vision only klarar av att upptäcka i tid. Dvs, samma förutsättning som en människa har idag men med 360 vy och 100 % fokus.
Jag förstår verkligen inte bilden alla har i att det är ett problem om en helt autonom taxi skulle välja att anpassa hastigheten, eller helt enkelt stanna vid sidan om vägen för att invänta rätt förutsättningar. Det är inte ett misslyckande, det är att agera som en människa och riskbedöma. Jag har varje år tillfällen där hastighet anpassas, eller där man tar en tidigare lunch för att låta ett regnoväder dra förbi. Bara för att bilarna kan börja köra själv så kommer vi inte ifrån de yttre elementen.
En lidar kostar ett par tusingar. Vad är ens diskussionen? Det är ROI på fem minuter.![]()
Men självklart, förstår vad du menar. På det sättet skulle autonomi inte fungera. Tycker dock det på kort sikt säger mer om vilka förhållanden människor fortsätter att köra i utan att faktiskt se helt ordentligt. Tror också nu att pga. säkerhet så klagar bilen på förhållandena snabbare än vad som egentligen alltid krävs. Just för att vara säker.
Med olika typer av placering och filter bör man kunna få till att en dator kan se bättre rakt in i motljus än vad en människa gör.
Och fortsatt bör kravet enbart vara att se lika bra, inte bättre i många av de här förhållandena.
Håller verkligen med om att en dödsolycka kommer spinna ordentligt, oavsett om man kommer fram till vem som anses vara vållande. I detta fall för Tesla ännu hårdare i dagens klimat, så kan ju definitivt finnas affärsmässiga skäl.spacecoin skrev: ↑17 mar 2025 15:39Jag tror ju att det av strikt affärsmässiga skäl lönar sig att lägga till en till sensor om du kan undvika ett dödsfall på en mörk väg ÄVEN om en människa hade gjort lika. Folk har inte empati för robotar. Kolla hur det gick för Cruise. Dom finns inte längre. Samma med Uber ATG. En allvarlig olycka krävdes i bägge fallenLurence skrev: ↑17 mar 2025 15:33Nu visade väl detta test att just motljus inte var ett problem?spacecoin skrev: ↑17 mar 2025 15:20Det behöver inte vara kraftig dimma för att FSD ska balla ur det räcker med lite låg sol. Ska taxin stanna under fyra timmar på morgon och kväll och/eller undvika uppförsbackar och tunnlar med?Lurence skrev: ↑17 mar 2025 15:11Åka på en 70-väg i kraftig dimma, fortsätta hålla 70 km/h på grund av att bilens lidar ser den mötande gångtrafikanten och håller ut, medans gångtrafikanten blir livrädd för att den inte ser dig och något helt plötsligt åker förbi i full fart.
Åka genom villakvarter i 50 km/h i mörker för att bilens lidar ser helt tydligt hela sin omgivning.
Fortsätta åka 110 km/h på motorvägen i tungt regn för att bilens lidar tydligt kan se avståndet till bilen framför.
Det går att fortsätta med exempel efter exempel såhär, där man kan se att tillämpningen av fler sensorer hjälper till men där bilen oavsett på grund av rådande omständigheter ska agera annorlunda. Sakta in för att anpassa sig efter förutsättningarna. Och då ge förutsättning till att i det här fallet vision only klarar av att upptäcka i tid. Dvs, samma förutsättning som en människa har idag men med 360 vy och 100 % fokus.
Jag förstår verkligen inte bilden alla har i att det är ett problem om en helt autonom taxi skulle välja att anpassa hastigheten, eller helt enkelt stanna vid sidan om vägen för att invänta rätt förutsättningar. Det är inte ett misslyckande, det är att agera som en människa och riskbedöma. Jag har varje år tillfällen där hastighet anpassas, eller där man tar en tidigare lunch för att låta ett regnoväder dra förbi. Bara för att bilarna kan börja köra själv så kommer vi inte ifrån de yttre elementen.
En lidar kostar ett par tusingar. Vad är ens diskussionen? Det är ROI på fem minuter.![]()
Men självklart, förstår vad du menar. På det sättet skulle autonomi inte fungera. Tycker dock det på kort sikt säger mer om vilka förhållanden människor fortsätter att köra i utan att faktiskt se helt ordentligt. Tror också nu att pga. säkerhet så klagar bilen på förhållandena snabbare än vad som egentligen alltid krävs. Just för att vara säker.
Med olika typer av placering och filter bör man kunna få till att en dator kan se bättre rakt in i motljus än vad en människa gör.
Och fortsatt bör kravet enbart vara att se lika bra, inte bättre i många av de här förhållandena.
Vidare är det även ROI på rent kommersiella grunder om du kan köra 10km/h snabbare med högre eller lika säkerhet som CV i mörker. Med det jag vet skulle jag aldrig sätta mig i baksätet på en robotaxi utan Lidar i mörker.
Ja det finns flera exempel. Elchocker eller tårgasLurence skrev: ↑17 mar 2025 15:56Nu säger jag ju självklart inte att jag tycker att bilar ska börja köra på personer, men jag tror att det kommer att bli ett problem i framtiden. Såg en film där en kvinna i en Waymo blev omringad av män som inte betedde sig och hon kunde inte göra något för att komma därifrån.