Commentaires : La Model 3 échoue lors d'une démonstration de son système de freinage autonome

C’est ça l’argument.

Alors je vais encore un mésusage, c’est ce qu’il faut démontrer, mais c’est pas gagné.

Heureusement que les pilotes d’avions ne comptent pas trop sur robito alors.

J’ose espérer que c’est un argument qui correspond à tes critères :

https://fr.wikipedia.org/wiki/Vol_US_Airways_1549

L’être humain est-il donc indispensable pour garder le contrôle d’un véhicule et ce, en toutes circonstances? C’est le but du permis de conduire. D’autre part mélanger des voitures autonomes (enfin, si elles deviennent fiables un jour) avec des voitures conduites par des personnes dans la circulation, c’est le bordel assuré. Les stats dont tu parles seraient totalement artificielles.

M’enfin, en attendant ça fait marcher l’industrie automobile ainsi que leurs sous-traitants.

non :

  • ton assertion : se faire prendre en charge plutôt que conduire rend mou du bulbe
  • contre argument : faux, sinon ceux qui se font déjà conduire seraient plus stupides que la moyenne
  • faille logique : je prends des transports en commun conduit par des humains (absolument aucun rapport avec l’assertion première) .
    On ne voit pas en quoi la qualité du conducteur du train rendrait plus ou moins stupide ses passagers.

En fait, c’est déjà démontré, il suffit de comparer les stats des systèmes autonomes tels Waymo VS la conduite « humaine ».

mais le problème c’est que pour rassurer les frileux il faudra non seulement qu’elle soit plus fiable, mais en plus qu’elle ne fasse jamais ou presque d’erreur.
Elle doit aussi empêcher totalement la « reprise de commande » pour être commercialement exploitable (car sinon il faudrait un très grand nombre d’opérateurs pour téléopérer ces reprises de commandes)

Quand on sait que l’accidentologie automobile rassemble 90% d’erreurs humaine c’est assez pathétique, mais il faudra faire avec, on a des biais (et tu exprimes très bien les tiens sans vouloir te vexer :wink: ).

Le constat Google était d’ailleurs accablant : en mode semi-autonome, ce sont les humains qui introduisent le danger, d’où son basculement en full-autonome.

C’est un argument, mais il n’est pas valable, rentre dans la logique du biais du survivant, celle qu’exprime les antivaxx par exemple.

En quoi une très exceptionnelle reprise de contrôle humaine spectaculaire invaliderait que nombre des 70% d’erreurs humaines actuelles en aviation n’auraient pas été évitées par la machine ?

à commencer par les suicides de pilotes, qui crashent volontairement leur zinc :

  • Andreas Lubitz, A320 de Germanwings 150 morts
  • 1982, DC8 japan airlines, Tokyo, crise de folie suicidaire, 24 morts
  • 1994, ATR 42 royal air maroc, Atlas, 44 morts
  • 1997, 737 Silkair, singapour, dettes, sanctions disciplinaires : 104 morts
  • 1999, egyptair, Massachusetts encore un copilote qui s’enferme dans la cabine, vengeance sur ses supérieurs, 217 morts
  • 2013, Mozambique airlines , Embraer 190, 33 morts

Je n’ai pas retrouvé l’article qui explique que probablement beaucoup plus de crash sont attribuables mais qu’on préfère « fermer les yeux » sur cette problématique très difficilement controlable.

Rajoute là dessus que 70% des crash sont attribués à une défaillance humaine, un exemple de sauvetage humain miraculeux, qui n’aurait pas pu être géré par la machine (tout le monde te l’acordera sur US Airways 1549), ne pèse pas lourd !

But non atteint : Chaque année dans le monde , on compte 1,35 million de décès sur les routes pour 20 à 50 millions de blessés, soit 1 mort toutes les 21 secondes environ
pour rappel : 90% d’erreurs humaines au passage.

Au contraire c’est régulateur. La route est envahie de camions qui roulent à 90 km/h sur des autoroutes à 130, avec un gabarit fou et une inertie de freinage dingue, et on s’y est parfaitement adapté, alors des caisses qui se contentent de respecter le code de la route ne te fera pas plus suer que si un français se met à conduire dans un pays de gens disciplinés (genre la Suède)

y’a pas de naturel ou d’artificiel dans des stats

Je dois avouer que même si je ne partage pas l’intégralité de ton argumentation, tes réponses sont assez intéressantes à lire, même si encore une fois elles sont discutables.

Par contre je ne vais pas faire de copier/coller avec ce que tu as dit et ce que j’ai déjà dit, je pense que c’est un peu ennuyeux à la longue, mais je vais reprendre un extrait de l’article :

« […] une Model 3 n’a pas réagi assez vite en détectant le mannequin simulant un piéton traversant devant la voiture. »

Question : pourquoi la Model 3 n’a pas réagi assez vite en détectant le mannequin ? Comme chacun le sait, une IA, c’est de la programmation informatique. Le problème avec un freinage d’urgence, c’est qu’il y a tellement de paramètres et de variables dont il faut tenir compte, qu’il est quasiment impossible de tous les programmer pour obtenir une IA suffisamment efficace. C’est pour cette raison que le freinage autonome ça ne marche pas. Le souci, c’est que les phases de freinage font parties de la conduite. Hors sans freinage autonome, pas de conduite autonome totale.

Pourquoi est-il si difficile de prévoir la météo? C’est parce qu’il y a énormément de variables. Pourtant on dispose de supercalculateurs pouvant réaliser un million de milliards d’opérations à la seconde.

Pour que la conduite autonome des voitures puissent devenir un jour au moins aussi efficace qu’une prévision météo, il faudrait une puissance de calcul au moins équivalente, je te laisse imaginer le prix de la voiture.

C’est vrai que trop d’accidents sont causés par des chauffards, mais si les constructeurs se soucient tellement de la sécurité routière (et de l’écologie mais c’est un autre débat), pourquoi continuent-ils à vendre des véhicules capables de rouler à des vitesses interdites par le code de la route?

C’est tellement plus simple de limiter électroniquement la vitesse maximale d’une auto. Oui mais voilà, ça voudrait dire que les radars ne seraient plus très rentables et il faudrait les supprimer à terme.

Il est tellement plus lucratif - et pour les constructeurs, et pour les gouvernements - de miser sur une technologie qui sera au final contrôlable par les uns et piratable par les autres, comme tout système informatique connecté.

Je ne suis pas contre le progrès, ce n’est pas la question. Mais les progrès de la science et de la technologie doivent seconder les actions de l’homme, pas le remplacer. Donc si je veux me faire conduire, c’est moi et moi seul qui fera le choix de monter dans un train ou sur un bateau. Mais imposer une conduite autonome à l’automobile au point de devenir la norme dans un futur imaginaire, pas de doute que ça rendrait les gens mous du bulbe à terme. Mais bon, on en est pas encore là.

Mais il n’y a rien d’imposer, ce sont des aides à la conduite qu’on peut désactiver :slight_smile:

Et si « demain » la conduite autonome devient obligatoire ?

EDIT: Je pose la question, car si ça sauve des vies, c’est ce qui devrait arriver.

Effectivement, on pourrait se poser la question !

Tu devrais regarder plus attentivement les vidéos montrant le travail d’une IA de conduite autonome (ne pas te fier juste à l’autopilot de production actuel, qui pour moi est daubé) .

choisir un itinéraire dans un rond point parisien, comme l’a démontré Tesla, ça, c’est l’enfer. mais freiner en urgence c’est simple.

contrairement à ce que tu penses pour ce point là il y a peu de « lois » et peu de facteurs :

  • est-ce qu’il y a un obstacle oui/non
  • est-ce qu’il va y avoir un obstacle (ex : surveillance des éléments au bord de la route)
  • est-ce que je peux l’éviter oui/non

On remarque que dans les erreurs de city safety (volvo), tesla ou Uber, c’est à chaque fois le coup du piéton qui se suicide qui pêche, et ce n’est pas parce que la somme de facteurs est folle, mais juste parce que le « framerate » des capteurs et de la machine est trop bas.

On en est à 2000 FPS de framerate, mais rien ne dit que toutes les frames sont exploitables ni que c’est suffisant pour quelque chose qui déboule à quelques mètres par la droite et se jette sous vos roues… Car oui l’IA doit décider de freiner dans ce cas AVANT que ça soit un obstacle.

elle doit :

  • percevoir un élément à droite de sa voie
  • l’identifier comme une menace et la distinguer d’un objet statique
  • calculer son vecteur de déplacement grâce à plusieurs frames (et pendant ce temps elle continue de rouler)
  • en déduire un choc inévitable et seulement là, freiner ou éviter

Et c’est là que l’autopilot (celui en production, pas le proto dont EM nous bassine de vidéo) est à priori franchement mauvais, mais ça n’est en aucun cas un truc fou ou indépassable, c’est seulement mal géré.

Cette partie est très intéressante.

Supposons qu’une voiture en conduite autonome de niveau 5, disons à 70 km/h, détecte un obstacle inattendu sur la route. L’ordinateur de bord - appelons les choses par leurs noms - doit prendre une décision en moins de 2 secondes compte tenu de la distance qu’il lui reste à parcourir avant de percuter l’obstacle en question s’il garde la même trajectoire.

Ma question est la suivante: si un freinage d’urgence rend quand même le choc inévitable avec l’obstacle en question, disons un piéton, et que l’évitement est la seule solution pour sauver ce piéton, mais qu’en l’évitant par la gauche, le véhicule autonome entrera en collision frontale avec le véhicule venant en sens inverse et qu’en l’évitant par la droite il entrera en collision avec un des arbres qui bordent la route, comment programmer informatiquement qui doit rester en vie et qui doit mourir ?

Alors bien sûr, le conducteur d’une auto en conduite « normale » serait confronté au même problème, mais ce que je veux dire c’est qu’il y a un grand vide juridique dans ce domaine, et que par conséquent, avant d’essayer de mettre au point un tel système de conduite autonome, il faudrait peut-être aussi penser à « qui est responsable de quoi » en cas d’accident.

Alors on ferait bien de réfléchir un peu à ça, avant de dire qu’il n’y a pas vraiment besoin de réfléchir en conduite autonome.

Ca voudra dire que ce sera parfaitement fiable :slight_smile:

De mon humble avis, je pense que les voitures volantes le seront bien avant.

Vu qu’on veut des moyens de locomotions de moins en moins énergivores j’imagine mal que ça passe par les airs :slight_smile:

Il faut penser en japonais… :wink:

https://www.clubic.com/uber/actualite-9547-le-gouvernement-japonais-veut-des-voitures-volantes-d-ici-2023.html

De là à se généraliser, j’y crois pas beaucoup… et je ne le souhaite pas non plus… 2 blaireaux qui se cartonnent en l’air c’est pas les mêmes conséquences que sur la route :slight_smile:

C’est pas faux, maintenant reste à savoir si la conduite autonome le sera aussi, et si oui, dans quelles conditions, c’est-à-dire la législation sera-t-elle la même d’un pays à l’autre. Personnellement j’en doute sérieusement.
https://gocar.be/fr/actu-auto/securite-routiere/3-aides-a-la-conduite-qui-vous-mettent-en-danger
https://gocar.be/fr/actu-auto/opinions/aides-a-la-conduite-dangereuses-et-polluantes

toi, tu regarde la route avant de traverser au moins, mais vu le nombres de débiles qui traversent

1. L’assistant de maintien de voie

Celui-là, nous ne sommes même pas certains qu’il mérite son nom « d’assistant ». Descendant du louable dispositif qui vous indiquait discrètement lorsque vous déviiez de votre voie de circulation, celui-ci corrige automatiquement votre trajectoire en agissant sur la direction. Si l’intention parait bonne, c’est toutefois insupportable à l’usage et parfois même carrément dangereux : déportez-vous légèrement vers la gauche de votre bande de circulation sur autoroute pour dépasser un camion ou laisser passer un motard, le système vous renverra systématiquement bien au milieu de votre bande.

Ca je l’ai personnellement constaté et je suis entièrement d’accord avec la première phrase : un assistant qui tente de corriger à tous prix une action du conducteur sans savoir le pourquoi de cette action, et si elle est pertinente ou nécessaire, n’est pas un assistant. tss.gif

Le Mazda CX-5 que j’ai conduit pendant 3 jours avait cette fonctionnalité, et dés la première réaction qui m’a obligé à me battre avec le volant pour faire un écart, je me suis fait la réflexion suivante : j’ai d’excellents réflexes hérités de plusieurs décennies sur deux-roues…et ces réflexes seraient ralentis par le véhicule lui-même, qui tenterait de m’empêcher de faire ce que je veux, par exemple un écart-réflexe parce qu’une portière s’ouvre brusquement ?.

Ce que j’ai aussi pu constater, c’est qu’il fallait constamment garder un oeil sur le hud…parce que parfois les marquages au sol n’étaient pas bien repérés et disparaissaient de l’affichage et l’assistance ne fonctionnait plus, on ne pouvait donc pas s’y fier.

A l’inverse, ma 2 n’a que la surveillance passive du maintien dans la voie, et après quelque temps je me suis rendu compte que quand il m’arrivait de dériver un peu dans ma voie* et que le buzzer me le signalait, je réagissais automatiquement selon que le son venait des h-p droits ou gauches et recentrait la voiture…je considère donc ça comme une assistance digne de ce nom, et pas un système qui tente de contrôler, et même contrer dans certains cas, ce que fait le conducteur. ^^

  • j’ai une manie…j’ai été chauffeur poids-lourd un certain nombre d’années, et j’en ai toujours gardé l’habitude de (trop) serrer la ligne de gauche de ma bande. ane

Oui c’est ça : si ça vient d’en face on est large, si ça surgit par le coté c’est très très court

Ma question est la suivante: si un freinage d’urgence rend quand même le choc inévitable avec , disons un piéton, et que l’évitement est la seule solution pour sauver ce piéton,

Et effectivement la stratégie d’évitement est déjà en place sur les démo d’autopilot

mais qu’en l’évitant par la gauche, le véhicule autonome entrera en collision frontale avec le véhicule venant en sens inverse et qu’en l’évitant par la droite il entrera en collision avec un des arbres qui bordent la route, comment programmer informatiquement qui doit rester en vie et qui doit mourir ?

On fantasme beaucoup sur l’histoire de la « morale-machine » mais c’est presque un faux problème, auquel les ingé sont confrontés dès la première mise au point.
Il faut recourir à des lois logiques, plus que « morales » :

  • la seule chose dont est sûre l’autopilot, c’est que ses passagers sont vivants, ce qui est en face ou sur le bord de la route, ce n’est pas sûr, ça peut d’ailleurs être mise en place pour leurrer le système… sacrifier une famille pour un décor en carton ou un problème d’interprétation du décor ce serait ballot

  • donc la loi 1, c’est que si la voiture est occupée, on privilégie la survie des/de l’occupant(s)

  • la loi 2 très probablement d’éviter tout impact, en privilégiant le freinage

  • si évitement comme freinage mènent à un impact, l’AP calcule probablement les intérêts respectifs pour les occupants de sortir à gauche ou à droite, quel est celui qui présente le meilleurs taux de survie pour les occupants ?

La voiture en fonction de sa vitesse dispose très probablement de lois physiques de base, sur les intérêts respectifs de taper de biais, pleine face, un obstacle mobile ou fixe etc.

Ajoute à ça une réaction à terme plus lente, sans possibilité de calculer les intérêts physiques respectifs de chaque « sortie ». La voiture est un « vulcain » qui va chercher à minimiser les conséquences.

il reste un cas « morale machine » problématique : le groupe de personne qui bloque la route
avec choc inévitable sur freinage d’urgence VS sacrifier les occupants moins nombreux de la voiture.

De mon point de vue la loi 1 s’applique : la voiture ne peur pas être sûre que le groupe n’est pas un leurre. Elle ne devra sacrifier la voiture dans le décor que 1) si elle est sûre qu’il n’y a pas de vide ou d’obstacle frontal hors chaussée 2) si la voiture est vide lorsqu’elle roule sous autopilot.

Dans tous les autres cas la logique veut qu’elle freine de son mieux et en l’absence d’évitements possible, vise la zone la moins « nombreuse ».

Il n’y a de vide juridique que pour le cas d’Elon Musk, qui refuse d’assumer la prise en charge de son Autopilot, ce que je trouve personnellement lamentable.

Clairement, la loi qui s’applique ici c’est le code de la route et celles des risques inhérents, acceptés par tous, d’occuper la chaussée. A partir de là le régime qui s’applique est celui de la responsabilité routière classique.

En mode autopilot c’est à 100% la responsabilité de la marque, et la limite de sa responsabilité doit être celle, classique, de l’assurance routière.

A ce titre la marque contracte une police d’assurance classique et si la caisse est sous autopilot ET est jugée responsable totalement ou partiellement de dégâts aux biens ou au personne, son assurance la couvre.

On cherche, je trouve, midi à 14h. La position de Volvo là dessus a déjà levé toute ambiguité ou complexité juridique artificielle :
https://geeko.lesoir.be/2015/10/09/voiture-autonome-volvo-assumera-la-responsabilite-en-cas-daccident/

il faut IMPOSER cette pratique à tous les constructeurs, comme on impose à un conducteur d’avoir une assurance.
Le pire c’est que pour le constructeur ça coute strictement que dalle.

Merci de ta lecture si tu as tenu jusqu’au bout ma loghorrée

Il me vient une question à l’esprit: est-il aussi question de « mettre au point » des 38 tonnes (ou plus) en conduite autonome? Parce que là si ça bug, il pourrait y avoir beaucoup de casse ! :thinking:

Ca fait longtemps que la conduite est TRES assistée sur les gros bahut :wink:

Ce n’est pas moi qui va te contredire sur ce point.

Pour ce qui est de la décision de Volvo, c’est la moindre des choses, et le plus étonnant c’est que la Suède est probablement le pays d’Europe avec le taux de mortalité le plus bas dans ce domaine, par conséquent, il n’est pas certain du tout que ce pays applique à grande échelle la voiture autonome. Ce serait en tout cas désactivable pour tous les conducteurs qui n’en veulent pas.

D’autant plus que la sécurité routière est un problème mondial qui n’est pas réservé aux seuls pays riches.

« Plus de 90% des décès par accident de la route surviennent dans les pays à revenu faible ou intermédiaire, qui ne comptent que 48% des véhicules immatriculés dans le monde. »

https://www.un.org/fr/roadsafety/background.shtml

Autrement dit, les pays pauvres auront-ils les moyens de renouveler tout leur parc automobile? Les habitants de ces pays auront-ils les moyens de s’offrir ce genre de véhicules connectés, en supposant que les infrastructures des pays en question soient compatibles? N’est-il pas nécessaire avant tout de changer les mentalités en fonction des continents pour améliorer la sécurité routière dans le monde avant de vouloir engraisser encore un peu plus les constructeurs automobiles dont le seul et unique but est de gagner encore plus d’argent?

Pas de quoi, au moins il y a quelque chose à lire.