Commentaires : Tesla poursuivi en justice pour un accident mortel supposément provoqué par l'Autopilot

Combien de morts sur les routes à cause de systèmes d’aide à la conduite par rapport au nombre de morts causés par la connerie humaine ?

Il n’y a pas de LIDAR dans les Tesla. Renseigne-toi mieux que ça voyons toi qui est supposé tout savoir.

Musk dit aussi que ceux qui utilisent le LIDAR s’en vont dans un cul de sac.
Trop cher et peu efficace sur le long terme.

Jusqu’à présent les propriétaires de Tesla ont accumulé environ 2 milliards de km en mode Autopilot. Il a sauvé de nombreux accrochages et plusieurs vies. Peut-être que ce n’est qu’une habitude à prendre d’être attentif? et que tu cherches désespérément n’importe quoi contre Tesla?

On sait tous que tu n’exagères jamais rien, un modèle d’objectivité /S
Au fait, tes liens ils sont où?

À manu0086, le hic c’est qu’il les a toujours tenu ses paris, aussi audacieux et apparemment impossibles… juste pas toujours dans les délais annoncés.

Le gros problème avec un réseau de neurone c’est qu’il s’agit d’un système complexe. Certifier conforme un système compliqué n’est déjà pas toujours facile, alors un système complexe… On l’a vu avec l’accident contre le camion, l’enquête n’a pas permis de trancher avec certitude (l’hypothèse la plus simple étant que la remorque du camion a dû être interprété comme des panneaux de circulations situés au dessus de la chaussée).

Quand à ceux qui s’extasient devant “homme + machine > homme”, sachez que c’est la moindre des choses et que cela ne prouve absolument pas que “machine > homme”. Le jour où une IA pourra dévaler une route vicinale de montagne par mauvais temps, comme le fait mon chauffeur de taxi depuis 30 ans sans accident, on en reparlera, mais en attendant, et bien justement on attend…

Genre désactiver un élément de sécurité…
Ce n’est pas une voiture autonome, mais elle est conçue pour le devenir.
le système te demande de reprendre le volant au bout de 20 seconde si tu le laches pour être sûr que tu es attentif. Elle ou l ambiguïté ?

Sans l autopilot, plus d obligation de respecter les distances de sécurité.

en analysant le comportement humain je préfère obliger les gens a ne pas conduire, mais a contrôler ce que fait le véhicule.

Allons, ne fait pas semblant de ne pas la voir, l’ambiguïté… C’est un peu “pousse au crime” de laisser cette fonction activée (“la fonction existe, mais ne vous en servez surtout pas”), sachant que si la voiture peut conduire seule 20s elle peut le faire 20min, autrement dit elle n’est pas plus fiable sur 20s que sur 20min, à part d’un point de vue purement statistique… Alors si c’est pas au point, on le désactive, jusqu’a ce que ce soir au point.

Question très con, vu le nombres de voitures équipé d’aide la conduite VS véhicules classique.

Et l’aide à la conduite ( je met en gras au cas ou certains ne comprendraient pas qu’il faut d’abord conduire) n’empêchera en rien la connerie humaine.

Petit rappel

t’as pas plus objectif comme source qu’un site de fanboys de Tesla ?
Ca fait des années que les fans ne jurent que par l’autopilot Tesla qui s’améliore et est le meilleur au monde, et pourtant au fil des ans on constate que les défauts sont toujours là, que maintenant ça tue, et qu’on trouve toujours à la pelle des vidéos d’accident à cause de l’AP qui a déconné.

“In the 1st quarter[2019], we registered one accident for every 2.87 million miles driven in which drivers had Autopilot engaged. For those driving without Autopilot, we registered one accident for every 1.76 million miles driven. By comparison, NHTSA’s most recent data shows that in the United States there is an automobile crash every 436,000 miles.”

1 « J'aime »

Tiens encore un homme parfait

J’aime bien les neuneus qui font des copier/coller comme ça les arrange.

Encore un site pro tesla, autant demander a un vegan si il aime la viande, aucune valeur.

Avec les données officiels du gouvernement et des rapports de sécurité que tu as pourtant mis en lien tantôt? Lol!

Ç est un rappel pour savoir si tu es attentif. Pas une autorisation de lâcher le volant. Tu peux tenir normalement le volant, mais en plus il faut exercer un légère pression dessus toutes les 20 secondes.
En prenant des décisions extrémistes sur des cas isolés, autant interdire les véhicules.
Il manquait aussi les amortisseurs de choque sur la chaussée : on interdit la route jusqu’à ce que ce soit réparé ?
Mais bon c est pas nous qui allons décider.

@rexxie, Musk a toujours tenu ses paris? LOL.
T’as vraiment pas honte de sortir ça?

On peut ramener le nombre d’accidents au km, c’est pas sale… :roll_eyes:

Oui, pas de bol. La voiture de test n’avait pas tous les systèmes activés… et une idiote a trouvé intelligent, en pleine nuit, de couper la route à une voiture arrivant tous feux allumés.
Le summum du pas de bol, quoi.

J’aime bien les neuneus qui mettent des liens sans les comprendre.
Il y avait 1 accident tous les 2.91 millions de miles puis 1 tous 2.87 millions, c’est une evolution non significative et dans les marges statistiques…

Ensuite :

Selon la NHTSA, un accident survient tous les 436.000 miles (701.673 km). Les Tesla ont donc 4 à 6 fois moins de risques de connaître un accident que la plupart des véhicules.

Donc sans commentaire…

Et?
Ça me fait une belle jambe, l’accidentologie américaine n’est pas comparable celle de la France.
Pas les même vitesses, pas le même état des routes, pas les même infrastructures etc. Si eux calcul en taules froissées, en France nous comptons en morts.
En 2016, le taux de mortalité en France était de 54,7 tués par million d’habitants en France et de 102,5 aux USA. La mortalité en France par milliard de km parcourus est légèrement inférieure à 6.

Si autopilot fonctionne bien sur chez les ricains avec leurs autoroutes en ligne droite interminable, j’ai des doutes sur les petites routes des Cévennes. donc comparons ce qui est comparable, c’est a dire que dalle.

Le nombre d’accident sous autopilot est une stat biaisée, car l’utilisation se fait principalement sur autoroute, là où justement le taux d’accident est déja habituellement très bas par rapport à la route ou la ville.
Le problème de ce type de stat et des stat en général c’est qu’on peut les interpeter comme on veut et les arranger comme on veut selon ce qu’on cherche à obtenir (c’est mon ancien prof de proba-stat de l’université qui disait ça).
Le fait est qu’il n’est pas normal qu’une systeme de sécurité tue.
Rexxie, ok pour le Lidar c’est effectivement un radar, donc peut importe car sur le fond ça ne change rien, ce systeme aurait du voir le pilier central de sortie d’autoroute, il n’a donc pas joué son role sécuritaire.
Le problème de Tesla c’est que Musk, n’ayant pas voulu du Lidar a voulu surtout centrer son autopilot sur les camera, or une camera est fortement perturbé la nuit, par temps dégradés (neige, pluie, brouillard), par un marquage absent ou presque effacé, ou par la circulation des autres véhicule qui cache les panneaux et lignes, voir meme par de simple moustiques qui s’écrasent sur l’optique.
Et arrêtez les fanboys avec vos arguments “les accidents étaient sous l’ancien logiciel”, à chaque fois que vous dites ça il y a un nouvel accident qui vient contredire vos propos.
Y a un moment où il faut grandir, arrêter d’etre un fanatique juvénile, et admettre que le systeme a encore de très gros défauts et qu’i lest loin d’etre autonome et efficace. Et arrêter de rejeter toute responsabilité sur le conducteur.
Rexxie,

Toujours le même gros troll sur les actu Tesla.