Le journal britannique The Guardian s’est intéressé dans un article aux problématiques rencontrées aujourd’hui par les constructeurs de véhicules autonomes
et pose la question de la complexité du développement de tels systèmes pour proposer une conduite véritablement autonome et non semi-autonome.
Ce sera possible quand toutes les voitures parleront le même langage et que les infrastructures seront communicantes aussi donc pas avant… longtemps !
Pour que les voitures soient autonome, il faut du civisme, des voies bien balisées et d’autres voitures autonomes communicantes via un protocole standardisé et surtout sécurisé.
Autant s’assoir sur un cactus pour l’instant!
Des voies dédiées.
On a vue une montée en flèche de l’intelligence artificielle il y a un quinzaine d’années, avec des exploits que l’on aurait cru impossible quelques années auparavant.
Mais si j’ai été époustouflé la 1ere fois que j’ai pu dicter un SMS à mon téléphone, mon assistant vocale d’aujourd’hui, ne fait finalement pas beaucoup plus qu’a l’époque.
Idem pour la conduite autonome. Les premières démonstration étaient hyper impressionnante. Mais aujourd’hui cela piétine.
J’ai l’impression que ces dernières années les progrès en matière d’IA marquent le pas et qu’il faudra un nouveau pas technologique pour voir de nouveaux réels progrès.
Ce sera peut-être demain, mais peut-être beaucoup plus tard.
Ça existe déjà et ça s’appelle un train.
Oui, oui, des taxis autonomes sur des voies dédiées.
Je suis d’accord avec le sens de l’article (la difficulté d’avoir une autonomie complète), mais le coté « bon sens » ne me plait pas. Le bon sens, c’est avant tout des réflexes conditionnés, soit par une éducation soit par l’émotion (et souvent un mix des deux).
Le cas de la voiture qui suit les rails est pour ça parlant. Un humain est surpris par les rails sur la route et se pose la question de la probabilité que cela soit la bonne direction parce qu’il SAIT que les rails, c’est pour les trains ou les trams, pas le véhicule => c’est « juste » un manque d’éducation, donc d’entrainement pour une IA.
D’ailleurs en visualisant la vidéo, je me suis dis que la voiture passait au rouge devant le piéton. Ce n’est qu’après réflexion (au moins 3s je pense, donc bien trop lent en terme de conduite), mes anciens réflexes américains sont revenus (feux après l’intersection) et que j’ai percuté. Reste que la voiture aurait du repérer la personne et s’arrêter…
Ca, c’est bien expliqué dans l’article, et c’est toujours le problème en sécurité, et en informatique en général. Tu doubles le temps / le cout pour chaque nouvelle décimale de sécurité ou de couverture gagnée. Il y a toujours d’énormes progrès effectués, sauf qu’on les voit de moins en moins.
On peut voir ça comme la « distance finie infinie »: tu prends la moitié de la distance qu’il te reste à parcourir et tu la parcours dans le même temps que la moitié que tu viens de franchir => tu n’atteindras jamais ta destination…
L’autopilote de Tesla est déja plus efficient que l’homme (même si elle fait des erreurs sur des choses qui nous semble evident), mais l’homme n’utilisera pas la conduite tant qu’elle ne sera pas efficace à 99.9999999%
De manière régulière, l’opportunité de la conduite autonome revient dans le débat avec son cortège d’analyses et de conclusions peu satisfaisantes. D’abord il serait bon de parler de conduite assistée, ce qui est le cas de tous les modèles proposés par les constructeurs et l’exemple de Tesla revient invariablement sur le tapis. Outre certaines difficultés évoquées dans cet article sur les comportements dangereux occasionnés par le « ful self driving » montrées dans différentes vidéos, il n’est pas aisé de ce faire une opinion objective, comme il est souligné dans l’article, tant les points de vues entrent les fans et les détracteurs varient. L’idéale, serait de conduire le véhicule en situation pour être un peu fixé. Cela dit, les décisions de Tesla semblent curieuses quant aux choix des instruments de mesures techniques de l’environnement. Absence de lidar, suppression du radar à l’avant. Utilisation exclusive des caméras et des capteurs. Cela paraît léger au regard des conditions climatiques à affronter, même si de surcroît l’ordinateur est très puissant, ces instruments seuls ne peuvent appréhender ces types de situations. Comment en effet suivre une voie sur une route enneigée où seul le lidar peut apporter une réponse, comment voir un véhicule devant soi sans un radar de distance ? Comme d’autres constructeurs, dans ces derniers modèles qui embarquent lidar, radar, caméras, capteurs et ordinateur performent, Mercedes, pour le moment le seul, a ainsi développé le niveau trois d’autonomie, homologué en L’Allemagne et certainement au niveau de l’Europe. Là, on peut raisonnablement parler de conduite assistée de bon niveau dans la mesure où le véhicule peu gérer des situations périlleuses : Éviter un véhicule, un piéton, peut-être aussi un animal. C’est le début d’une ère qui rendra la voiture moins dangereuse car ne l’oublions pas une grande partie des accidents sont le fruit de l’inattention du conducteur au volant.
Je n’y avait pas pensé, mais l’exemple du ballon et de loin une bonne explication pourquoi cette technologie ne sera pas démocratisé avant longtemps!
En tant qu’être humain, on recoupe beaucoup de situations et on sait par expérience, que quand on passe du temps dans les parcs de jeux et que l’on voit un ballon passer, des enfants courent derrière…
Il faut avoir été piéton pour pouvoir anticiper au mieux ce que l’on peut rencontré qu’en on est au volant…
Ce n’est donc pas du « bon sens » comme dit dans l’article, mais « l’expérience humaine » qu’il manque au voiture!
Et même dans presque tout en général. On observe ça partout dans la vie courante, c’est aussi le cas par exemple pour le rendement mécanique des moteurs, pour les performances d’un sportif, pour la productivité d’un salarié, la croissance d’un enfant…
Ça progresse très vite au début quand on part de zéro, puis les gains deviennent de plus en plus difficiles à obtenir.
La question n’est pas de savoir si la conduite autonome est fiable ou non mais de savoir si elle est plus fiable que des humains.
Sans être expert on peut facilement supposer que dores et déjà elle est plus fiable sur nationales 2x2 et autoroutes (pas de conducteur qui s’endort, distances de sécurité plus fiables si uniquement des véhicules autonomes qu’avec des humains pressés) et qu’en ville il faut garder le volant considérant la quantité de données d’environnement à percevoir et traiter.
C’est pas demain la veille que la bagnole nous ramènera à la maison quand on est bourré…
La seconde raison ne vient pas du système en lui même mais de la communauté des fans de l’entreprise d’Elon Musk. Quel que soit le problème remonté en public par les consommateurs, l’armée de fans de Tesla, selon le Guardian , vient immanquablement le contredire, arguant que c’est principalement le conducteur qui est fautif ou que la publication du défaut n’a d’autre but que de nuire à l’entreprise. Une montée de bouclier quasi systématique qui protégerait la marque de toute critique et compromettrait une prise de recul concernant les dysfonctionnements.
Tellement vrai, on l’a vu à de nombreuses reprises ici-même.
Or, nier l’existence d’un problème ou ne pas savoir reconnaître qu’il y en a un, c’est n’avoir aucune chance de le résoudre, et c’est valable dans tous les domaines.
Exact. Dans ma région, il y a des rails de tramway à de nombreux endroits. Et selon la disposition des lieux, parfois il est normal de les suivre et parfois non. Un humain n’a aucune difficulté à le comprendre, mais pour un véhicule autonome ce sera nettement plus complexe à comprendre et décider. ^^
D’un autre coté, j’ai vu une voiture s’engager sur les rails du RER. Et le mec n’était même pas bourré, juste il a « confondu » les rails et l’entrée du parking juste après le passage à niveau!
Heureusement qu’il a pu reculer rapidement et repartir sur la route… :-/
Tout dépend de la définition de l’efficacité.
- Capable de conduire 36h d’affilé sans défaillance ?
- Capable de conduire 100 bornes sur des routes non goudronnées et non proprement balisées sans finir dans le fossé ?
- Capable de faire 100 bornes sur une autoroute ?
- Capable de laisser des gens passer dans des embouteillage pour faciliter le traffic ?
- Capable de monter sur le trottoir sans danger parce que le camion de livraison ne nous laisse pas le choix ?
Musk met un peu ce qu’il veut dans efficacité (et je précise que je roule en Tesla), pour servir son discours.
Il suffit d’aller voir Chuck Cook sur YouTube qui teste en permanence une situation bien précise (unprotected left turn) pour voir que dans ce cas précis, l’humain est globalement bien plus efficace, mais que sur des longs trajets sur autoroute, je pense que la tendance s’inverse.
« En 2020 ce sont plus de 2 500 personnes qui sont mortes sur les routes de la métropole. Aux États-Unis, on estime qu’il y a un mort tous les 160 km de route. »
Ca fait de très jolies phrases qui évitent les répétitions mais pour comparer les chiffres instantanément, ça n’aide pas beaucoup…
je suis d’accord si le train peut sortir de ses rails. Or il ne peut pas pour le moment. Il y a un expérimentation de la sncf a ce sujet.