Commentaires : Tesla Vision est enfin là, voilà ce que c'est

La première version de Tesla Vision est en cours de déploiement et apporte une nouvelle fonction d’assistance au stationnement.

C’est vrai que retirer des capteurs à 20cts pièce (peut être 20€ avec le câblage de tous les capteurs) alors que toute l’architecture soft était déjà en place pour les gérer correctement, je sois pas sûr que ce fût l’idée du siècle.

5 « J'aime »

On ne parle plus de conducteur, mais d’assisté, bientôt plus personne ne saura faire un créneau…qué désastre.

1 « J'aime »

En faisant l’inverse de Mercedes, avec l’abandon du radar, des capteurs ultra-son, l’absence de lidar, la marque semble se désengage progressivement de la conduite autonome. La seule vision par caméras est largement insuffisante pour assurer une conduite sécurisée.

3 « J'aime »

C’est bizarre, une image est beaucoup plus coûteuse à analyser d’un écho non ?
Pour la sécurité se baser sur différent types de capteur est une plus grande garantie de fiabilité non ?
Je ne doute pas qu’il n’est pas simple de faire fusionner les données non concordante est compliqué, mais cela à au moins l’intérêt de montrer un problème dans un des deux types de capteur.
Je pense honnêtement que le temps de calcule n’est pas le facteur limitant dans le choix de cette suppression. Le côté économique (capteur en moins + les puces les gérants + le câblage + la simplification du montage) est important, et le côté complexité de fusion des données sont les deux facteurs ayant conduit à cette simplification.

Je n’avais déjà que peu confiance en leur technologie, mais cette évolution ne va clairement pas me rassurer.

2 « J'aime »

« retirer des capteurs à 20cts pièce (peut être 20€ avec le câblage de tous les capteurs) alors que toute l’architecture soft était déjà en place pour les gérer correctement »

ça part d’une sorte de « vision » de Musk sur le dossier, qu’il a amorcé dès le départ du projet, et qui a été la cause de sa séparation d’avec MobileEye : virer TOUT ce qui n’est pas caméra.
ne gérer qu’un seul média, peu cher, de toute façon indispensable, très évolutif par software.

l’économie doit être vue de ce point de vue là, pas juste les retraits de ces capteurs.

Musk a commencé par virer les Lidars protos des mulets FSD, puis les radars longue portée anicollision, puis les radars ultrasons de l’éventuel park assist.
C’est un peu comme quand Apple a voulu virer un à un tous les ports, molettes, boutons.

C’est dans une démarche centralisatrice / minimaliste.
j’y vois une forme d’idéologie jusqu’au boutiste, mais je comprend qu’on puisse défendre ça.

"Avec des capteurs de natures différentes (radar + caméra, etc…) le système doit faire corroborer les informations fournies par chaque type de capteur. Ça prend du temps de cycle de calcul qui pourrait être mis à profit pour exploiter davantage les données d’un type de capteur (les caméras)

Les développeurs de Tesla ont expliqué que plus le FSD progressait en vision, plus les données radars étaient redondantes, et généraient du « bruit », et faisaient perdre des cycles de calcul."

Des témoignages qui commencent à sortir nous disent que ça, c’est du storytelling. Musk était complètement buté sur la question et s’est fritté avec les gens de la sécu, a dissimulé plusieurs accidents graves en interne etc.

Le lidar génère peu de bruit, il a son propre circuit et crache beaucoup moins de données brutes au final qu’une double-caméra ultra haute vitesse dont on doit extraire N millions de points / seconde par photogramétrie.

A la nuance près que tous les points du Lidar ont le bon gout d’être tous… justes.

1 « J'aime »

Au final c’est toujours le patron qui a raison hein… mais quand on voit le nombre d’échecs qu’il ramasse récemment, il faut croire que sa période « génie » est terminée.

Ce que j’en sais, c’est que la caméra de ma voiture, destinée à surveiller le maintien dans la file et avertir si nécessaire par un bourdonnement dans les haut-parleurs gauches ou droits, signale souvent des faux positifs*, alors que le Lidar anti-collision m’a sauvé la mise à deux reprises. ^^

  • du genre voir sur la route des lignes presque effacées mais ne pas voir les neuves bien visibles, ou signaler une dérive (souvent par temps de pluie…trompée par des flaques d’eau ?) alors qu’il n’y en a pas.
1 « J'aime »

puis les radars longue portée anicollision

Ça sert à éviter les collisions avec le pastis ?
《 Maiis naon m’sieur l’agent … les agents … j’suis pas bourré, j’ahaieu évité toutes les rencontres avec des boaasssons à l’anis aaveqeu mon syssstaiime anicollision … 》

(Et vous remarquerez que j’aurais plutôt pu faire une blague avec_anus, mais je suis quelqu’un de sérieux).

1 « J'aime »

Impressionnant en effet. Tout ce que fait le cerveau humain de façon naturelle et sans calculs ni matériel complexe, enfin, quand le cerveau marche bien :wink:
La scène avec la voiture qui tire la remorque brinquebalante est assez édifiante des situations qui peuvent se produire !
C’est à la fois bien et quelque peu dégradant pour l’homme : l’individu du futur ne saura plus conduire une voiture ni faire un créneau sans l’assistance de l’ordinateur de bord. Et je ne parle pas de se garer avec une remorque derrière.

1 « J'aime »

Beaucoup de confusion, tesla vision est sorti pour l autopilot depuis 1 an et demi. Et je parle du tesla vision version 1 sur lequel le Park assist est aussi basé… Il s agit d une analyse d’images 2d indépendante et très approximative… Depuis 1 an environ tesla teste sont tesla vision 2 sur lequel le FSD beta est construit. Il s’agit d cette fois ci d utiliser toutes les caméra pour modéliser m environnement qui entoure 'e véhicule en 3d avec bien plus de précision que le tesla vision 1… Donc le Park assist basé sur tesla vision 1 n est la que pour colmater temporaiement le manque de capteurs ultrason sur les recents véhicules de Tesla en attendant que la version qui utilisera l occupency network sorte un jour… Et la nous aurons quelque chose de suffisamment précis pour lui donner quasi totale confiance car capable de voir à 360 et également à toutes les hauteurs…

1 « J'aime »

Ecoutes Nicolas, : la démo Tesla est très convaincante, on voit qu’ils ont énormément cerné de problématiques- mais ça me semble beaucoup moins impressionnant que font les concurrents comme Mobile Eye.

Le truc que l’équipe de ME semble avoir dépassé, c’est décoder le « code de la route tacite de chaque coin du monde » et « les intentions précises des autres conducteurs humains » avec des cas de figures impressionnants, bloquants même pour des humains, et que je n’ai pas retrouvé ici.

Quand à la photogrammétrie, je n’ai rien vu qui me semble dépasser les problèmes habituels des caméras et qui ont envoyé quelques Tesla dans le décor : contre jour massifs, routes très enneigées, phares aveuglants sur route mouillée (ou pire : contre jour rasant sur route mouillée)

Il fait très beau et très jour dans toutes ces démos Tesla, avec en retour un magnifique paysage minecraft, ok, mais quand la source est presque inexploitable parce que les cam sont saturées ? on peut avoir une démo ?

Les deux donnent des nuages de points, mais quasiment rien ou presque ne leurre un Lidar, parce que c’est lui qui illumine, dans une bande de fréquence que personne ne partage, il ne dépend pas d’une lumière extérieure éventuellement manquante ou aveuglante, et toujours changeante.

Et c’est pourquoi à part Tesla personne n’a jugé intelligent de tout faire reposer sur la photogrammétrie., tous les autres combinent les deux, depuis le départ.

1 « J'aime »

Cadeau

Cette photo est sous licence ”Demerden Sie sich”.

1 « J'aime »

merci Nicolas, je fouille et je t’envoie une vid testée en live avec quelques cas ME, qui je pense sont plus qu’édifiants, (par exemple : croisement de bus, qui fait des appels de phare pour que tu passes, ce que ton AI doit interpréter, ou encore mecs qui forcent un passage par la droite sur un tourne-à-gauche)

je crois l’équipe Tesla très forte, mais elle a probablement perdu un temps considérable avec cette affaire de cam, à « patcher » un maximum d’incohérences, au lieu de passer à l’étape d’après.

« Il est important de noter que : les caméras ont une très grande sensibilité, très vaste, supérieures à l’oeil humain. »
Oui, ça me semble un minimum, mais ça reste dépendant d’une source d’éclairage externe, et il y a bien un moment ou ce gros spot blanc qu’on appelle le soleil et qui crach plusieurs kW par m2 se trouve absolument pile dans l’axe de la caméra, et là : mystère, sauf mise en place d’un coronagraphe ou équivalent je ne vois pas.
Ajoute les reflets neige et flotte ? là aussi des filtres polarisants massifs peut être ?

Dans l’intérêt de la sécurité de son public, Musk devrait littéralement expliquer et démontrer que ces objections n’ont plus lieu d’être, non via une démo réinterprétée, mais en nous montrant que les images-sources sont tellement bien gérées par ces cam et objo magiques, que le problème ne se pose plus à la source.

@Martin_Penwald : très belle vue dans ton job, j’imagine la même mais sans le nuage qui te protégeait un peu du pire !

comme promis, voilà la vid sur mobile Eye :

dis moi ce que tu en penses, sauf miracle les fan-boy des fofo Tesla exagèrent un poil quand ils pensent la marque devant non ?
[ dans les deux cas, on est d’accord qu’on parle de produits très très avancés et il va être impossible à nos marques européennes de s’aligner sans poser 10 ans de R&D et quelques milliards sur la table ]

Une paire de lunettes de soleil est suffisante, mais nécessaire, la majorité du temps pour éviter d’être aveuglé par la neige. Et quand je suis dehors, mes verres polarisants suffisent à atténuer la luminosité.

Je poste cette photo aussi parce qu’elle montre une situation où les voies ne sont pas délimitées. Il y a 2 voies assez larges au milieu, et là, je suis garé sur l’accotement, où il y a de la place pour mettre au moins 3 camions côte à côte de chaque côté de la route, et ce sur environ 7 ou 800 mètres. Il n’y a d’ailleurs pas de panneaux en amont pour signaler qu’il y a moyen de stationner, donc l’ordinateur doit deviner qu’il ne s’agit pas de voies de circulation. C’est évident pour un humain, mais comment l’ordinateur interprète la situation ?

ce que les gars de ME expliquent, c’est que certaines choses paraissent évidentes uniquement pour les locaux de l’étape, ou les pros dans certaines zones. C’est pour ça que même en étant le meilleur conducteur du monde, quand on est dans une région éloignée on y conduit « comme un touriste » et c’est très énervant pour les autres.

Leur logique là dessus c’est que par dessus tes règles de bases, le paysage, chaque croisement, est réinterprété par des datas locales qui sont achetées par ME, et qui leur permettent de réinjecter des « solutions » et des comportements « locaux » .

ça patchera pas tout, mais au vu de la vidéo, je pense que certains de mes proches s’en sortent moins bien que la ford de la vidéo au dessus :wink:

1 « J'aime »

en tout cas aujourd’hui même une caisse de chez Cruise s’est bourré un bus par derrière malgré son Lidar. Comme si une logique de loi d’Asimov attribuée à la detection de proximité pouvait « planter » au point de ne pas empêcher une erreur aussi grossière.

Soit qu’elle était dans les choux depuis un moment sans que le système principal ne s’en rende compte, soit que l’arbitrage entre la vision et les lidars a eu un gros gros problème d’arbitrage entre l’impératif et le facultatif…
comme quoi le matos seul n’est pas non plus la clé

Y’a encore du boulot pour eux en tout cas.