La première version de Tesla Vision est en cours de déploiement et apporte une nouvelle fonction d’assistance au stationnement.
C’est vrai que retirer des capteurs à 20cts pièce (peut être 20€ avec le câblage de tous les capteurs) alors que toute l’architecture soft était déjà en place pour les gérer correctement, je sois pas sûr que ce fût l’idée du siècle.
On ne parle plus de conducteur, mais d’assisté, bientôt plus personne ne saura faire un créneau…qué désastre.
Sur le matériel, oui, ça peut être considéré comme une économie de bout de chandelle, Rapporté au volume, ça peut s’élever en millions d’euros (environ 1 million de Model 3 et Y produits en 2022) qui peuvent aller dans le financement de l’équipe AI.
Au delà du coût matériel, c’est aussi le « coût / temps logiciel » que Tesla cherche à alléger, en diminuant au maximum les latences dues à la « fusion des capteurs ».
Avec des capteurs de natures différentes (radar + caméra, etc…) le système doit faire corroborer les informations fournies par chaque type de capteur. Ça prend du temps de cycle de calcul qui pourrait être mis à profit pour exploiter davantage les données d’un type de capteur (les caméras)
Les développeurs de Tesla ont expliqué que plus le FSD progressait en vision, plus les données radars étaient redondantes, et généraient du « bruit », et faisaient perdre des cycles de calcul.
Le système HW 3.0 qui équipe la plupart de Tesla capable de FSD actuellement commence à être ancien, sa puissance est limitée, donc Tesla essaie d’en exploiter les moindres ressources restantes au maximum…
Bon, là, pour se garer, c’est pas critique, il n’y a pas besoin de réagir au centième de seconde, mais pour de la conduite à plus vive allure, des cycles de calculs rendus inutiles peuvent être critiques pour la sécurité.
Le HW 4.0, en cours de test sur des S, X et Cybertruck, devrait ajouter une caméra dans le pare-choc, et possiblement dans les phares, et passerait de 8 à 11 caméras au total.
ça fait plus de choses à traiter, mais toutes les données sont de même nature.
Mais on parle aussi de l’ajout d’un « radar haute définition », ce qui contredit un peu tout ce que je viens de dire… Il faudra attendre pour avoir une justification technique cohérente…
En faisant l’inverse de Mercedes, avec l’abandon du radar, des capteurs ultra-son, l’absence de lidar, la marque semble se désengage progressivement de la conduite autonome. La seule vision par caméras est largement insuffisante pour assurer une conduite sécurisée.
C’est bizarre, une image est beaucoup plus coûteuse à analyser d’un écho non ?
Pour la sécurité se baser sur différent types de capteur est une plus grande garantie de fiabilité non ?
Je ne doute pas qu’il n’est pas simple de faire fusionner les données non concordante est compliqué, mais cela à au moins l’intérêt de montrer un problème dans un des deux types de capteur.
Je pense honnêtement que le temps de calcule n’est pas le facteur limitant dans le choix de cette suppression. Le côté économique (capteur en moins + les puces les gérants + le câblage + la simplification du montage) est important, et le côté complexité de fusion des données sont les deux facteurs ayant conduit à cette simplification.
Je n’avais déjà que peu confiance en leur technologie, mais cette évolution ne va clairement pas me rassurer.
« retirer des capteurs à 20cts pièce (peut être 20€ avec le câblage de tous les capteurs) alors que toute l’architecture soft était déjà en place pour les gérer correctement »
ça part d’une sorte de « vision » de Musk sur le dossier, qu’il a amorcé dès le départ du projet, et qui a été la cause de sa séparation d’avec MobileEye : virer TOUT ce qui n’est pas caméra.
ne gérer qu’un seul média, peu cher, de toute façon indispensable, très évolutif par software.
l’économie doit être vue de ce point de vue là, pas juste les retraits de ces capteurs.
Musk a commencé par virer les Lidars protos des mulets FSD, puis les radars longue portée anicollision, puis les radars ultrasons de l’éventuel park assist.
C’est un peu comme quand Apple a voulu virer un à un tous les ports, molettes, boutons.
C’est dans une démarche centralisatrice / minimaliste.
j’y vois une forme d’idéologie jusqu’au boutiste, mais je comprend qu’on puisse défendre ça.
"Avec des capteurs de natures différentes (radar + caméra, etc…) le système doit faire corroborer les informations fournies par chaque type de capteur. Ça prend du temps de cycle de calcul qui pourrait être mis à profit pour exploiter davantage les données d’un type de capteur (les caméras)
Les développeurs de Tesla ont expliqué que plus le FSD progressait en vision, plus les données radars étaient redondantes, et généraient du « bruit », et faisaient perdre des cycles de calcul."
Des témoignages qui commencent à sortir nous disent que ça, c’est du storytelling. Musk était complètement buté sur la question et s’est fritté avec les gens de la sécu, a dissimulé plusieurs accidents graves en interne etc.
Le lidar génère peu de bruit, il a son propre circuit et crache beaucoup moins de données brutes au final qu’une double-caméra ultra haute vitesse dont on doit extraire N millions de points / seconde par photogramétrie.
A la nuance près que tous les points du Lidar ont le bon gout d’être tous… justes.
Je n’en ai pas entendu parler, mais compte tenu de la personnalité du zigoto, je veux bien croire qu’il les aient poussés dans cette direction.
Pour le LiDAR, c’est la même problématique. Les données reccueillie par le LiDAR est un nuage de point, qui ne signifie rien s’il n’y a pas une reconnaissance d’image dessus. Ces images sont fournies par les caméras, et le « sens » est donnée par le réseau de neurones dûment entrainé.
Les caméras génèrent effectivement énormément d’informations, et c’est leur intérêt, puisqu’elle permettent un niveau de détail très élevé : formes, couleurs, etc…
La clé, c’est le traitement de cette quantité d’information via le réseau de neurones.
Encore une fois, j’insiste, allez voir les images de l’AI Day pour voir ce que génère le réseau de neurones à partir des images brutes des caméras, en particulier « l’occupancy network »
Oui, elle est plus couteuse, mais elle est beaucoup plus riche en information, et elle donne du contexte, puisque les images ont un sens.
Au final c’est toujours le patron qui a raison hein… mais quand on voit le nombre d’échecs qu’il ramasse récemment, il faut croire que sa période « génie » est terminée.
Ce que j’en sais, c’est que la caméra de ma voiture, destinée à surveiller le maintien dans la file et avertir si nécessaire par un bourdonnement dans les haut-parleurs gauches ou droits, signale souvent des faux positifs*, alors que le Lidar anti-collision m’a sauvé la mise à deux reprises. ^^
- du genre voir sur la route des lignes presque effacées mais ne pas voir les neuves bien visibles, ou signaler une dérive (souvent par temps de pluie…trompée par des flaques d’eau ?) alors qu’il n’y en a pas.
puis les radars longue portée anicollision
Ça sert à éviter les collisions avec le pastis ?
《 Maiis naon m’sieur l’agent … les agents … j’suis pas bourré, j’ahaieu évité toutes les rencontres avec des boaasssons à l’anis aaveqeu mon syssstaiime anicollision … 》
(Et vous remarquerez que j’aurais plutôt pu faire une blague avec_anus, mais je suis quelqu’un de sérieux).
Impressionnant en effet. Tout ce que fait le cerveau humain de façon naturelle et sans calculs ni matériel complexe, enfin, quand le cerveau marche bien
La scène avec la voiture qui tire la remorque brinquebalante est assez édifiante des situations qui peuvent se produire !
C’est à la fois bien et quelque peu dégradant pour l’homme : l’individu du futur ne saura plus conduire une voiture ni faire un créneau sans l’assistance de l’ordinateur de bord. Et je ne parle pas de se garer avec une remorque derrière.
Sur quel modèle de voiture?
LiDAR ou caméra, ça dépend du logiciel qui traitera les informations et prendra la décision.
Et certains fonctions vont-être dévolues à certains circuits, pour certains capteurs, en fonction des logiciels développés et des compétences des équipes de développement.
Dans le cas de Tesla, il y a une unité de capteurs, les caméras, mais une superposition des réseaux de neurones chargés de différentes tâches. Certains sont chargées d’identifier les lignes et les couloirs de de circulation, de planifier les manoeuvres, d’autres de reconnaîtres les « agents » qui occupent l’espace de circulation (voitures, avec ou sans porte ouverte, camions, personnes, cyclistes, poubelles, cônes de chantier, etc…)
Et ces réseaux de neurones sont entrainés pour convertir à la volée les inforamtions "rasterisées (images pixelisés) en objets vectoriels (volume et vitesse) dans un espace 3D.
Beaucoup de confusion, tesla vision est sorti pour l autopilot depuis 1 an et demi. Et je parle du tesla vision version 1 sur lequel le Park assist est aussi basé… Il s agit d une analyse d’images 2d indépendante et très approximative… Depuis 1 an environ tesla teste sont tesla vision 2 sur lequel le FSD beta est construit. Il s’agit d cette fois ci d utiliser toutes les caméra pour modéliser m environnement qui entoure 'e véhicule en 3d avec bien plus de précision que le tesla vision 1… Donc le Park assist basé sur tesla vision 1 n est la que pour colmater temporaiement le manque de capteurs ultrason sur les recents véhicules de Tesla en attendant que la version qui utilisera l occupency network sorte un jour… Et la nous aurons quelque chose de suffisamment précis pour lui donner quasi totale confiance car capable de voir à 360 et également à toutes les hauteurs…
Ecoutes Nicolas, : la démo Tesla est très convaincante, on voit qu’ils ont énormément cerné de problématiques- mais ça me semble beaucoup moins impressionnant que font les concurrents comme Mobile Eye.
Le truc que l’équipe de ME semble avoir dépassé, c’est décoder le « code de la route tacite de chaque coin du monde » et « les intentions précises des autres conducteurs humains » avec des cas de figures impressionnants, bloquants même pour des humains, et que je n’ai pas retrouvé ici.
Quand à la photogrammétrie, je n’ai rien vu qui me semble dépasser les problèmes habituels des caméras et qui ont envoyé quelques Tesla dans le décor : contre jour massifs, routes très enneigées, phares aveuglants sur route mouillée (ou pire : contre jour rasant sur route mouillée)
Il fait très beau et très jour dans toutes ces démos Tesla, avec en retour un magnifique paysage minecraft, ok, mais quand la source est presque inexploitable parce que les cam sont saturées ? on peut avoir une démo ?
Les deux donnent des nuages de points, mais quasiment rien ou presque ne leurre un Lidar, parce que c’est lui qui illumine, dans une bande de fréquence que personne ne partage, il ne dépend pas d’une lumière extérieure éventuellement manquante ou aveuglante, et toujours changeante.
Et c’est pourquoi à part Tesla personne n’a jugé intelligent de tout faire reposer sur la photogrammétrie., tous les autres combinent les deux, depuis le départ.
Je ne connais pas les performances de Mobile Eye, juste des mentions faites par ceux qui analyses les progrès du FSD, dont Dr Know-It-All, mais qui est un probablement un peu biaisé car pas mal fan de Tesla. Il respecte le travail de ME, mais d’après lui, ils sont derrière.
Certains accidents que tu évoques étaient, de mémoire, lié à l’Autopilot, et pas la FSD, qui est un logiciel complètement différent, bcp plus basique, et qui est en train d’être remplacé par le FSD.
Pour les conditions « extrêmes » que tu évoques, il existe des vidéos de beta-testeurs, qui en montrent les performances et les limites. Et AI Day montre au chapitre « Simulation » des entrainements simulés avec brouillard, pluie, reflets, etc… Et aussi probablement visible dans des vidéos de betas testeurs.
Je ne doute pas que toutes ces conditions font partie du panel d’entrainement de l’IA. et que les performances s’amélioreront.
Pour l’anticipation des autres usagers, il me semble qu’il en est fait mention dans l’AI day. Mais je n’ai pas revisionné, chapitre « planning ».
Pour le retrait du LiDAR, c’est une décision économique, probablement faite au moment où ils ont réalisé que les caméras suffiraient (et au prix de gros efforts de développement…)
Il est important de noter que : les caméras ont une très grande sensibilité, très vaste, supérieures à l’oeil humain. Et que Tesla utilise des LiDAR sur des véhicules de développement. Probablement pour de la calibration / confrontation / validation des performances de leur système de vision.
Cet AI Day a presque 6 mois, et de nombreuses mises à jour on été faites depuis, notamment la 11.2 qui unifie le code et se débarrasse de l’Autopilot.
Quoi qu’il en soit, je trouve le sujet passionnant sur le plan technique, et ça fait plaisir de tomber sur quelqu’un qui échange véritablement!! Merci pour ça.
merci Nicolas, je fouille et je t’envoie une vid testée en live avec quelques cas ME, qui je pense sont plus qu’édifiants, (par exemple : croisement de bus, qui fait des appels de phare pour que tu passes, ce que ton AI doit interpréter, ou encore mecs qui forcent un passage par la droite sur un tourne-à-gauche)
je crois l’équipe Tesla très forte, mais elle a probablement perdu un temps considérable avec cette affaire de cam, à « patcher » un maximum d’incohérences, au lieu de passer à l’étape d’après.
« Il est important de noter que : les caméras ont une très grande sensibilité, très vaste, supérieures à l’oeil humain. »
Oui, ça me semble un minimum, mais ça reste dépendant d’une source d’éclairage externe, et il y a bien un moment ou ce gros spot blanc qu’on appelle le soleil et qui crach plusieurs kW par m2 se trouve absolument pile dans l’axe de la caméra, et là : mystère, sauf mise en place d’un coronagraphe ou équivalent je ne vois pas.
Ajoute les reflets neige et flotte ? là aussi des filtres polarisants massifs peut être ?
Dans l’intérêt de la sécurité de son public, Musk devrait littéralement expliquer et démontrer que ces objections n’ont plus lieu d’être, non via une démo réinterprétée, mais en nous montrant que les images-sources sont tellement bien gérées par ces cam et objo magiques, que le problème ne se pose plus à la source.
@Martin_Penwald : très belle vue dans ton job, j’imagine la même mais sans le nuage qui te protégeait un peu du pire !