Commentaires : La conduite autonome arrive officiellement dans le Code de la route

Il y a beaucoup d’obstacles à 10000m d’altitude ? Et encore, les avions communiquent entre eux pour s’éviter.
Rien à voir avec la conduite autonome que l’on veut nous vendre , qui consiste à vouloir faire rouler une voiture en autonomie, toute seule au milieu des autres, sans communication entre les véhicules, et sans aucune redondance !!

2 « J'aime »

C’est étrange cet article car ma voiture est équipé de la conduite autonome niveau 2 à savoir elle lit les panneaux se met à la vitesse affichée, se cale sur la voiture de devant et maintient la trajectoire (même dans les virage, elle tourne seule) et il ne me semble pas être « hors la loi ». Sur autoroute, elle se met à 130km et on ne bouge plus, elle se charge de maintenir la vitesse et freinernsi devant ça ralenti… Non je n’ai pas une Tesla mais une Ford Focus…

1 « J'aime »

La voiture autonome (quand elle existera) sera certainement plus sûre que la voiture conduite par des humains… mais elle ne sera pas infaillible.

Le problème est que la société n’acceptera pas qu’une machine puisse tuer des humains… même en sachant que le nombre de mort a été divisé par dix.

Et bonjour le casse-tête juridique.

1 « J'aime »

L’automatisation n’est pas synonyme d’autonomie. L’autonomie accrue implique d’une voiture implique potentiellement de prises de décisions dans des situations que seul un humain peut apprécier. D’autre part, l’hyperconnectivité croissante des véhicules induit un risque supplémentaire via le piratage et donc la prise de contrôle du véhicule sans le consentement du conducteur dans les années à venir.

Donc il faut rester critique; la conduite autonome oui à petite dose ça peut rendre service, je l’utilise moi-même dans des conditions strictes.

Oui, mais avec le niveau 2, vous devez laisser les mains sur le volant. On est dans l’ordre de l’aide à la conduite, pas de la voiture autonome (niveau 4).

Au risque de te faire peur, je te signale que des pirates peuvent déjà prendre le contrôle de quasiment n’importe quelle voiture récente… Pour qu’une voiture puisse être contrôlée, il n’y a pas besoin qu’elle soit autonome, il suffit fondamentalement que 3 conditions soient respectées :

  1. Que la direction soit dotée d’un moteur permettant d’agir dessus sans qu’il soit nécessaire d’agir sur le volant : c’est le cas de toutes les voitures dotées d’une direction assistée électrique… Sachant qu’il y avait déjà ça sur ma C3 d’entrée de gamme d’il y a 18 ans, j’imagine qu’aujourd’hui c’est quasiment toutes les voitures neuves.

  2. Que l’électronique de la voiture puisse agir sur l’accélérateur et les freins : à partir du moment où ta voiture a l’ABS et l’ESP, c’est le cas. Ou encore si tu as un régulateur de vitesse. L’ABS et l’ESP sont obligatoires sur tous les véhicules neufs dans l’UE.

  3. Que ta voiture soit connectée à un réseau : c’est le cas de toutes les voitures dotées de la fonction SOS. Fonction obligatoire sur les véhicules neufs dans l’UE.

Et sur la plupart des voitures modernes, il n’y a plus de frein à main mécanique, juste un bouton, ce qui fait que tu n’as même plus ça pour forcer l’arrêt de ta voiture si quelqu’un en prend le contrôle.

Mais malgré tout, on ne voit pas des masses d’affaires d’accidents lié à ça. Comme quoi, c’est plus un fantasme qu’une réalité, même si c’est techniquement possible.

Tu as raison.

Toutefois le zéro mort naturel ou artificiel c’est un mythe.

Et faut pas trop se laisser endormir par les statistiques du nombre de morts sur les routes qui ne servent qu’à nous culpabiliser et nous faire redoubler de vigilance. Et d’une certaine manière tant mieux si ça sert à certains.

Les statistiques annuelles du nombre de mort sont la pour foutre la trouille et ne parlent jamais de deux paramètres pourtant fondamentaux pour bien comparer.
Le nombre de véhicules en circulation et le nombre de kilomètres parcourus par véhicule.
Parce que sinon on s’apercevait que la route est beaucoup plus sûre qu’avant Et ca serait contre productif pour la propagande.

Chaque vie perdu est un drame. C’est pas une raison pour nous prendre pour des perdreaux de l’année.

J’avais lu une étude sur le sujet, dont la conclusion était qu’il faut absolument chercher à sauver en priorité les occupants de la voiture, quelque soit la situation, et qu’il faut communiquer sur ça, car c’est au final ce qui sauvera le plus de vie. Pour une raison toute simple : les gens seront plus enclins à opter pour des voitures autonomes s’ils savent qu’elles les privilégieront toujours eux plutôt que des « extérieurs », et du coup, ça permettra d’avoir beaucoup plus de voitures autonomes sur les routes, et donc moins d’accidents et moins de morts.

Ces environnements sont beaucoup plus faciles. Il n’y a quasiment pas d’obstacles si on dévie de la trajectoire prévue, il n’y a pas d’obstacles qui apparaissent à la dernière minute, la densité de trafic est beaucoup plus faible… D’ailleurs, en France par exemple, tu peux avoir ton brevet de pilote dès 15 ans et avec seulement 6h de vol avec moniteur, alors que pour le permis de conduire on exige 18 ans et 20h de conduite avec moniteur.

Attention quand même avec ce genre de stats : il faudrait comparer à niveau de gamme équivalent. Parce que les vieilles poubelles sont bien plus accidentogènes que les berlines flambant neuves, pour des raisons techniques, mais aussi pour des raisons externes (niveau d’expérience du conducteur notamment).

Dans le cadre d’une voiture totalement autonome, ce que tu appelles un « désengagement de sécurité », c’est bien un fail. Une voiture totalement autonome ne PEUT PAS désengager. Donc elle doit être capable d’agir dans TOUTES les situations.

1 « J'aime »

Etude théorique et plutôt irréaliste d’un « expert », donc. ^^

Parce que si un constructeur admettait que la priorité a été donnée à la sécurité des occupants du véhicule, ce serait pratiquement avouer qu’il a donné la permission au véhicule de décider qu’un piéton peut être écrasé si ça peut éviter un accident pouvant avoir un impact sur les occupants du véhicule.

Prenons un cas de figure précis qui pourrait très bien se produire : un véhicule quelconque coupe la route à un véhicule autonome, ce dernier n’a plus le temps de s’arrêter par freinage et doit prendre une décision immédiate.

a. percuter l’obstacle, avec des conséquences possibles pour ses occupants.

b. éviter l’obstacle pour préserver ses occupants, ce qui l’amène à monter sur un trottoir et renverser/blesser/tuer une ou plusieurs personnes.

Comment trancher dans un pareil cas moral ? pour moi, il ne fait aucun doute que quelle que soit la solution choisie, elle donnera lieu à un moment ou un autre à des procès retentissants. ^^

En n’oubliant pas un détail : un propriétaire de véhicule autonome, peut-être protégé dans son véhicule parce que le constructeur a priorisé sa sécurité, peut très bien être le piéton sur le trottoir dans le cas de figure cité plus haut. paf

2 « J'aime »

J’ai pas compris le sens de ton commentaire @zoup01

Est-ce bien qu’un humain décide de tuer un chien (ou un enfant) en faisant la distinction avant de commettre l’acte ?

Quant à moi je trouve cette décision fabuleuse - bravo aux lobbies; une fois encore je m’incline face à leurs manigances.

La plupart des commentaires que je lis fait référence au fait qu’il y a des conducteurs sous l’emprise de l’alcool et de la drogue. C’est magnifique, désormais il y aura toujours des conducteurs sous emprise plus des milliers de véhicules en version beta de pseudo-conduite autonome boostés par des bonus/prime à l’achat de tous genres (avec des pseudo-geeks au volant passif).

J’ai beau me repasser le film et je ne vois pas de failles. Bravo les lobbyistes !!!

Alors dans le plan des lobbyistes, c’est en annex sous la mention « ne pas en parler lors des tables rondes petits fours avant 2025 ». Bien à vous et gavez-vous bien !

Tu te contredis en partant parce que l’intelligence artificielle est en constant développement rapide, et « il y a longtemps » perd tout son sens dans ce contexte.

De plus, ce sont les constructeurs automobile qui sont à la fine pointe de ce progrès inédit à la vitesse exponentielle de ce siècle, et le ferroviaire ne fera rien de son côté, sauf de bénéficier des retombées d’une petite partie d’une technologie qui aura été éprouvée.

Oui, mais elles ne le sont pas encore, donc ce n’est pas un fail, mais un apprentissage. C’est pour ça que Tesla considère, enregistre et corrige chaque évènement où l’autopilote se désengage, ou que le conducteur reprend le volant. Ils y arrivent mais ça prend beaucoup de jus d’ordinateur simili-intelligent et de sauce de programmeur pour y arriver dans 99,9xx% des cas.

Elle prend déjà des décisions, et de plus en plus(comme décider de prendre la voie opposée s’il y a un encombrement imprévu dans la voie normale).
Si elle doit remplacer l’humain, il va de soi qu’elle prendra les décisions qui s’imposent selon son expérience artificiel (à réflexes infaillibles) immensément plus vaste que n’importe quel humain, à terme.

Je pense qu’il y a beaucoup d’attente sur la voiture autonome et que les gens ont tendance a la voir comme une panacée mais il est évident que cela ne résoudra pas la totalité des accidents. Forcément il y en aura mais les gens seront certainement moins permissif avec ces systèmes. Font a parier qu’au moindre incident impliquant un véhicule autonome et un être humain ça sera dans l’esprit de beaucoup de gens, de prime abord, le véhicule autonome le fautif… :thinking:
Comme le dit @Blackalf dans certaines situations se pose un choix cornélien. Quel que soit le choix du véhicule on le lui reprochera s’il y un accident. Un humain qui prendra la même décision ou qui fera bien pire ne se retrouvera pas forcément devant un tribunal alors que le constructeur du véhicule autonome oui… Allez donc comprendre…:roll_eyes::roll_eyes::roll_eyes:

L’automatisation induit l’autonomie… L’automatisation implique aussi des décisions. Je ne comprends pas ton commentaire.
Et je te rassure tout de suite, une voiture autonome prendra une décision bien plus réfléchie que le réflexe d’un homme, probablement même mieux qu’un pilote entrainé: plus d’infos disponibles (plus de senseurs) et plus de solutions envisagée pour la situation en cours, donc probablement avec une issue moins grave.
Je ne sais pas si tu conduis… Le nombre d’accidents débiles que j’ai vu, que j’ai eu ou que j’ai évité est juste énorme. Je dirais même plus que je ne souviens que d’erreurs bêtes de ma part ou des autres conducteurs. Je pense que la plupart des problèmes auraient pu être évités avec un poil plus de temps pour réagir, un peu plus d’attention ou plus d’informations. Il n’y a pas de raison qu’un système suffisamment évolué ne puisse mieux réagir.

1 « J'aime »

Je reste persuadé qu’une conduite semi-autonome (en attendant une conduite autonome qui est un rêve actuellement et surement pour de longues années) permettra de réduire le nombre de tués sur les routes. Par contre, je n’irai pas jusqu’à dire qu’une IA est supérieure à l’être humain car c’est faux (et heureusement). Un exemple tout simple : en ville, le cerveau humain est capable de détecter un piéton qui ne traversera pas (car statique en regardant son smartphone) et pas un programme informatique à ce stade. De plus, si l’humain est capable de traiter (plus ou moins bien) une situation improbable, la machine n’est pas capable de le faire.

Si l’on prend le cas du jeu de go, oui, une machine est capable de battre un être humain. Mais à quel prix (30 KWh de mémoire en consommation électrique vs… 30 W pour le cerveau humain) et ne lui demandez pas ensuite de commenter la dernière étape du tour de France… car elle en sera incapable si le programme n’a pas été développé. L’IA version Hollywood est sans limite, pas l’IA dans la vie réelle !

Et encore ces références au passé. AlphaGo a battu l’humain en 2017, une éternité en temps de progrès d’IA.
AlphaZero, son successeur lui, bat AlphaGo, sans jamais avoir été programmé pour.
Par auto apprentissage du Deep Learning. L’approche de Tesla.

C’est un peu ce dont je parlais, sur quelles bases apprises le véhicule jugera et décidera-t-il ?

Il est exact qu’un humain jugera une situation et réagira en fonction de beaucoup de paramètres qui seront propres à chacun, ce qui inclut l’expérience, les automatismes et la rapidité des réflexes.

Une IA se référera théoriquement à une banque de données, et le résultat sera lui aussi théoriquement parfait…mais il pourrait néanmoins être variable d’un constructeur à un autre selon les données qui auront été insérées dans cette banque (sauf bien entendu s’il y a un véritable standard auquel se référeront tous les constructeurs, mais ça c’est une autre histoire, on sait bien que chacun veut développer son système). ^^

Bref, je pense qu’on généralise trop, et que le comportement des véhicules autonomes ne sera pas forcément identique en tous points dans les mêmes cas de figure, il y aura des différences entre les marques en fonction de l’approche choisie par les constructeurs.

Le deep Learning et son auto-apprentissage changent tout. Plusieurs ici ne savent pas combien l’IA et ses algorithmes est différente/supérieure de la programmation classique.

1 « J'aime »

La conduite autonome fera dans TOUT les cas de toute façon mieux que l’humain. Si vous croyez le contraire c’est que vous n’avez pas encore tout saisi. Un jour on se demandera comment il était possible de l’aisser des humains conduire de tels engins

1 « J'aime »