Une évaluation indépendante du système de conduite autonome Full Self-Driving (FSD) de Tesla vient de révéler des résultats plutôt inattendus. Ces derniers remettent sérieusement en question l’efficacité réelle de cette technologie tant vantée.
C’est certes une belle démonstration technique, mais pas encore au point, un conducteur attentif avec des réflexe de Jedi reste nécessaire quand le système se plante / est perdu.
Et il y a aussi l’aspect réglementaire de la chose, qui serait responsable em cas d’accident.
Conclusion, pour l’instant l’erreur humaine est au même niveau que le FSD…
On le garde juste pour les créneaux… lol
je suis étonné de voir qu’ils ont viré tous les équipements initiaux (laser, radar, détecteurs…) pour ne garder que les caméras !
j’aurai pu penser qu’il aurait été plus efficace de multiplier les systèmes d’acquisition de l’environnement externe en toutes conditions (nuit, pluie, brouillard, forte luminosité…)
Voir de permettre un complément de vérification !
C’est une idée de Musk! Dans son idée, comme l’humain fait tout avec ses yeux (ce qui n’est déjà pas tout-à-fait vrai), l’ordinateur doit pouvoir faire de même.
On voit le résultat…
D’après Tesla, le FSD se désengage en moyenne tous les 130 miles (72 miles en ville).
D’après les données publiques de Waymo, leur taxis se désactivent en moyenne tous le 17000 miles parcourus (tout en ville).
La société a certainement volontairement soumis le véhicule à des cas complexes, c’est le but d’une certification. On est donc peut-être pas dans un trajet type d’où les différences entre les chiffres de Tesla et ceux de cette entreprise.
Mais même en prenant en compte les 21 km sans avoir à toucher le volant, il n’y a que moi qui trouve ça assez impressionnant et prometteur ?
Ca a encore bien évidemment besoin de progresser. Il faut des années pour que ce soit meilleur. Il faudra peut etre aussi passer par des standardisations au niveau des routes, feux, panneaux pour aider à de meilleures detections (il faudrait que les futures normes au niveau routier soient adaptées, car ça reste l’avenir). Après la différence entre ce test indépendant et la réalité s’explique surement par le fait que les données vantées par tesla sont principalement de l’autoroute / voie rapide… En tout cas en attendant, je vais laisser les béta testeurs se faire des frayeurs sur la route et regarder tout ça de loin.
A mon humble (^^) avis, ça sera viable le jour où les voitures communiquerons entre elles. Je ne vois pas l’intérêt de mettre un ordi au milieu de réactions humaines et donc aléatoires.
Pour le feu rouge, on dirait que tout le monde le grille, peut être que la voiture s’est dit que c’était normal
Non déjà le gars au début de la vidéo accélère en mode manuel et regarde même pas la route … C’est pas sérieux, y’avait peut être un bébé sous les roues, Rooooh…
Et il passe parfaitement le test des feux la nuit , système FSD pour" Full Self Daltonian "!
En clair, si une IA est utilisé la dedans elle n’apprend visiblement rien ?
Quand je vois l’état de propreté des caméras et capteurs sur ma voiture au bout de quelques kilomètres avec l’incroyable propreté des routes dans nos campagnes j’ose pas imaginer le nombre de fois qu’il va falloir s’arrêter pour nettoyer tout ça…
Y’a des jours où la route est dangereuse, où les conditions font que les risques d’accident sont plus élevés. Perso je n’ai jamais eu d’accident alors peut-être que j’ai des réflexes de jedi (parce que je ne pense pas avoir un bol de dingue) et quelques très rares fois j’ai l’anti collision dans une situation à la gomme qui m’a évité un contact à basse vitesse.
Tout ça pour dire qu’avoir un accident dans ces conditions tous les 21 km, désolé mais ça me conforte dans l’idée que jamais je ne confierai ma vie ou celle de ma famille à un algo. Ça ne sera jamais vraiment au point.
Pour être rassuré il me faudrait une collection de capteurs divers et variés, un système de sécurité en doublon etc… et peut-être que là je m’y intéresserais.
Mais certainement pas sur une voiture dans les systèmes sont rabotés uniquement pour des raisons de coût ou la lubie de son propriétaire milliardaire.
Alors imaginez sur les routes texanes. Non, je rigole. Mais imaginez quand même.
Et du coup vous interdisez l’usage des routes aux piétons/vélos ?
prometteur? Ca fait des années que Melon nous promet un Full Self Driving fiable pour demain…
21 km sans intervention, c’est à la fois impressionnant et terrifiant. Le conducteur confiant dans le système (ou dans les propos du gourou) n’est plus vigilant au bout d’autant de km sans avoir à intervenir, sauf qu’il FAUT encore intervenir. Les gens sont tellement assistés dans la vie qu’il ne savent plus rien faire sans assistance.
Et tu nous expliques comment on garde des routes « propres » ?
Le FSD de Toyota parait plus sûr même s’il est moins autonome : suivi de filles, arrêt/redémarrage en fonction du véhicule de devant, freinage, lecture des panneaux, mais rappelle assez vite de tenir le volant.
Ça permet d’éviter les accidents pendant un moment d’assoupissement et autorise à ne pas trop regarder la route lors des bouchons, mais oblige quand même à conduire et donc rester attentif en temps normal.
Mais même en prenant en compte les 21 km sans avoir à toucher le volant, il n’y a que moi qui trouve ça assez impressionnant et prometteur ?
Oui. Pour un système prétendument FULL self driving, c’est ridiculement nul.
suivi de filles
Ben voyons … Quel gros pervers !
Facile, c’est l’automobiliste. Tesla se protège le popotin en expliquant en long en large et en travers que même si le FSD merdoie, c’est pas de leur faute.
Tant que Tesla n’assume aucune responsabilité sur son machin, alors le robotaxi est une clownerie.