Jag sade aldrig emot det. Klart att man ser mer, om man har fler inputs.spacecoin skrev: ↑13 maj 2024 22:32Det är ju helt självklart att det blir bättre och säkrare med en aktiv sensor-modalitet.Jaegaern skrev: ↑13 maj 2024 21:22Deras end-goal har alltid varit att köra bild in, utan andra sensorer.spacecoin skrev: ↑29 apr 2024 11:24Det berodde på att radarn som Tesla använde hade på tok för dålig upplösning för användningsfallet. Har man signalkällor med bra signal/noise så är inte sensorfusion ett problem.
Här har du en modern radar:
https://www.continental-automotive.com/ ... rs640.html
Och enligt AP-teamet så har det varit oeffektivt att ha med fler sensorer innan de helt gick över till senaste arkitekturen. Att mocka fler sensorer drog ner hastigheten, vilket förmodligen var det absolut viktigaste för att komma närmre sitt end-goal så snabbt som möjligt.
Det här är från Teslas perspektiv, inte föraren.
Å andra sidan, som förare har jag dock inte riktigt förstått problemet förutom när det är dimma/grå himmel och AP säger "begränsad sikt". Det är urlarvigt. Men det händer 2 gånger per år. Annars fungerar AP precis lika bra som när jag köpte bilen, bättre i vissa fall då det frös på under nollgradigt och snökaos och radarn slutade ge data och AP avaktiverades. Nu funkar det mycket bättre under nätter med mycket snö runt nollan.
"Radar is an active and coherent sensing modality that operates at wavelengths about a thousand times longer than visible light. Important differences between radar and cameras are:
Active sensing means that radar provides illumination-independent operation
Coherence means that radar can provide a per-frame measurement of distance and motion (through the Doppler effect)
With such a long wavelength, angular resolution and accuracy are far lower than a camera for any reasonably sized sensor aperture
Bearing these qualities in mind, consider camera failure modes. These are scenarios where the output of a sensor fails to provide enough information for the controller to operate safely. Examples of this for cameras include:
* Total failure of a sensor caused by a rock strike or perhaps a hardware fault
* Inadequate illumination, nighttime driving and low reflectance
* Inclement weather conditions such as rain, snow, fog, and dirt on the lens
* High scene dynamic range (e.g. sun in frame, headlights) masking dim objects
* Changing scene dynamic range (e.g. entering/exiting tunnels, tree/building shadows)
Automotive radar can address these failure modes with an alternate sensing modality that provides:
* Different uncorrelated risk of sensor hardware failure
* Active scene illumination, not dependent on the time of day or sun angle, indifferent to the presence of the sun in the field of view
* Different weather phenomenology, which offers complementary strengths in inclement weather
* A much longer wavelength yields different and complementary object reflectances
* Direction measurement of range and motion that otherwise would have to be derived from context/multiple frames in the camera"
https://wayve.ai/thinking/introducing-r ... explained/
Problemet med självkörning har sedan flera år passerat stadiet med att kunna se allt. Det har varit ett problem om vad man ska göra, snarare än se. Man anser att det man kan se är helt tillräckligt i de flesta fall för att helt fokusera på bilens agerande.