Commentaires : Tesla poursuivi en justice pour un accident mortel supposément provoqué par l'Autopilot

Un peu plus d’un an après le décès de Walter Huang au volant de sa Tesla Model X, sa famille intente un procès à Tesla, ainsi qu’à l’État de Californie. Selon les plaignants, la responsabilité de l’entreprise américaine serait engagée car son système de pilotage automatique aurait affiché des défaillances, aux conséquences funestes. Des accusations rejetées par la société d’Elon Musk.

Pourquoi mettre en titre “supposément causé par l’autopilot” !!! pour info, deux conducteurs en Tesla ont reproduit exactement le meme défaut, l’un au meme endroit de l’accident l’autre à un endroit similaire. Dans ces deux cas la voiture se serait également écrasée contre la borne centrale si le conducteur n’avait pas repris la main au dernier moment.

ça me fait penser a la scène dans Robocop où l’ED209 massacre un gars par accident, commentaire du patron d’OCP “ce n’est qu’une anicroche, une cellule défectueuse…” RAB du gars qui s’est fait pulvériser. C’est une parodie mais c’est tellement vrai quand il y a des enjeux financier aussi gros derrière…

Vous avez malheureusement raison.

Quand d’un côté, tu fais croire médiatiquement être prêt pour la complète autonomie et de l’autre tu soulignes que contractuellement, la Tesla n’est en rien une voiture autonome et est très très loin de l’être…

Hé oui, ces entreprises ont deux solutions:

  • dépenser des millions en indemnisant des victimes qui de toute manière ne seront jamais satisfaites tout en reconnaissant publiquement qu’il y a eu un soucis ce qui provoquera une crainte des utilisateurs…
  • ou nier, minimiser et laisser traîner les procédures judiciaires le temps que la technologie s’améliore et que le public l’adopte au prix d’innocentes victimes…
    Cruel dilemme lorsqu’on est à la tête de ce genre de grosse entreprise même si dans l’absolu la vie n’a pas de prix.

je suis navré, mais les conditions d’utilisation ca existe …
si vous mettez du gas oil dans votre voiture essance, vous vous retournez contre le fabriquant ?
quand vous mettez 380 v dans votre pc en 220 et qu’il crame, vous vous retourner contre le fabriquant ?
quand tesla vous vends une voiture, en vous repetant que l’autopilote n’est pas fiable a 100% et que le conducteur est le seul responsable de sa securité, vous comprenez quoi ?
C’est pas comme si tesla en fesait un secret … c’est marqué dans la paperasse a l’achat, sur l’ecran a chaque demarage, et si vous mettez pas les mains sur le volant, ca vous alerte encore …
En plus, le mec, c’est pas jojo l’clodo … c’est un ingenieur … meme si c’est pas un ingenieur en informatique , on peut penser qu’il sait lire .
Bref, pour moi, c’est bien le conducteur qui est en faute …
C’est malheureux, c’est triste, mais c’est comme ca.

1 « J'aime »

La logique de Tesla est d’utiliser les conducteurs comme beta testeurs, et je trouve que c’est mettre la charrue avant les boeufs, surtout quand la sécurité est en jeu. Personne n’imaginerait monter dans un avion ou le système n’aurait jamais été testé à fond, et il n’y a qu’à voir le dernier cas du B737 max qui fait un scandale monumental chez Boeing pour un programme qui n’était pas au point.
quand au refus de Tesla de reocnnaitre le défaut et le faire porter sur le conducteur c’est classique, on se rappelle tous de l’affaire dite de l’antennagate de l’iphone 4 où Jobs lui meme disait que c’était à cause des utilisateurs qui tenaient mal le telephone … avant finalement de reconnaitre le défaut devant l’évidence et la pression médiatique.

Tu n’as visiblement pas vu les circonstances de l’accident, je te recommande de voir la vidéo de la reconstitution faite pas un autre conducteur sur place, tu verras qu’à 100km/h le temps de voir que le systeme déraille il était trop tard pour un quelconque rattrapage manuel. Je ne peux pas te mettre le lien YT car clubic censure leur liens.
Ensuite, meme si le systeme de camera a été en cause lors de l’accident (rappelons qu’il n’a pas vu le ligne qui était presque effacé) il y aurait du y avoir de toute façon le système radar LIDAR qui aurait du voir l’obstacle et l’éviter.

C’est toujours un peu trop facile de rejeter toute la responsabilité sur le conducteur et de dédouaner du moindre problème.
Tesla et Musk n’ont pas hésité à faire une grosse pub sur leur autopilote en vantant ses qualités tel un argument de vente. il ne faut donc pas s’étonner que beaucoup le surestime. La faute est disons, partagée, mais ne aucun cas tu ne dois dédouaner la responsabilité du constructeur sous prétexte qu’il affiche un message d’avertissement au démarrage ou à la page 524 du manuel.

Le premier gros cas avec une voiture autonome est enfin arriver et ce procès vas faire date et auras un impact énorme sur l’utilisation des voitures autonome.

Je ne suis pas expert en loi américaine mais si je ne me trompe pas dans certains états il est interdit (comme en France) de lâcher le volant des 2 mains (voiture autonome ou pas).

@hyst, non, tu n’es pas expert, une voiture de Uber a tué un piéton l’an dernier. Et un fan de Tesla trop confiant a été décapité en 2016.

T’as pas plus impartial qu’un site de fanboys Tesla comme source ?
Evidemment qu’un systeme sécuritaire a pour but de sauver des vies, c’est normal puisque c’est dans cet optique qu’il est créé. L’ABS a sauvé des vies, le freinage d’urgence pieton a sauvé des vies, l’airbag a sauvé des vies etc. Le problème c’est quand ces systemes sauve des vies mais aussi en tue, là y a un soucis. Il ne suffit pas de sortir le ratio vies sauvés vs vies perdues pour se justifier.
Quand boeing a mis sont programme dans ses B737 max il n’a pas justifié l’accident en disant “ça a sauvé plus de vie que ça n’en as tué”. Y a un moment où il n’est pas normal qu’un systeme de sécurité tue.
je sais Rexxie que tu es un fanboys invétéré de Musk et ses sociétés mais à un moment faut arrêter de dire n’importe quoi pour justifier tout et n’importe quoi pourvu que ça vienne de Tesla. ils ont droit de se tromper, d’avoir un systeme pas perfectible et le fait de le mentionner dans le contrat ne les dédouane pas, c’est trop facile. Bon nombre de société ont été condamné en justice pour des clauses abusives qui dédouanait les sociétés vis à vis des clients, ça montre bien que le simple fait de le dire en page 524 ne les rend pas NON responsable.
Quand au coup du “le type voulait se suicider”, faut arrêter la mauvaise foi, rien n’a établi cette thèse complotiste des fanboys de ton genre. On est dans la meme betise de jobs qui disait que les utilisateurs d’iphone 4 recevait mal parce qu’ils tenait mal leur telephone

la diference entre les cas que tu cite (boeing et apple ) et tesla, c’est que pour tesla, tout le monde sait que c’est du beta testing …
que l’autopilote n’est pas autonome et que le conducteur doit etre vigilent en permanance.

Il ne s’agit pas d’un vice caché … il ne me semble d’ailleurs pas que tesla nie le probleme.
La seule chose qu’ils nient, c’est leur responsabilité .

Et encore une fois, si les conditions d’utilisations ne sont pas respectées, cela me semble normal que leur responsabilité ne soit pas engagée …

On pourrais reparler de la pertinence de faire du beta test sur le terrain … personellement, je suis convaincu que c’est la methode la plus rapide et la plus efficasse pour avoir un autopilote fonctionnnel … mais je suis ouvert au debat.

Mais j’en demords pas. SI on ne respecte pas les regles d’usage, faut pas s’etonner que ca pose probleme.

Ps : quand a monter dans un avion testé a fond … renseigne toi sur les qualification en aéronautique …
Un avion n’est quasiment pas testé …
En gros, pour mettre un avion en circulation, il faut presenter les plan a je sais plus quel organisme, que ces plans respectent un certain nombre de regles, et ensuite produire un avion pour faire un vol d’essai … c’est a peu pres tout.
En matiere de test, ca coute plus cher de mettre une voiture en circulation qu’un avion … par ce que l’avion d’essai, apres, tu peux le mettre dans le circuit.
pour les voitures, il en faut un certain nombre pour passer les epreuves de crash - test … qui ne seront bien evidement pas revendues apres.

Tiens, le gourou a rexxie se fait caca dessus sur un risque de pénurie de piles

Le fait de mettre un logiciel en beta teste sur une voiture devrait justement rendre caduc la responsabilité des conducteurs. Dans la mesure ou un logiciel n’est pas certifié qualité on ne peut pas jeter toute la responsabilité sur le conducteur.
pour l’aviation, pas de chance pour toi je travaille dans ce domaine et je te garantie que tu racontes n’importe quoi. Les certifications de la FAA et l’AESA sont très rigoureuses et nécessites plusieurs milliers d’heures d’essais en vol. un avion met plus de 1 à 3 ans pour etre certifié. il y a toute sorte d’essai, en vol, au sol, dans le froid, sous pluie, sous forte chaleur, etc et tous les systemes de sécurité sont testés et validés. Cela n’empeche pas certains bugs logiciel de passer à travers, un programme sans bug n’existe pas, surtout quand ils sont lié à une panne d’instrument dans des conditions particulières. donc évite de balancer des affirmations totalement fausse pour te donner un pseudo crédit.

Ça a faillit m arriver : la voiture a hésité entre la sortie et rester sur la 4 voies par défaut de marquage au sol.
J’ ai évidemment eu un gros avertissement sonore et visuel de reprendre le volant en main, avant même de savoir si la voiture allait merder. Je me suis amusé a laisser faire étant seul sur la route : la voiture a pilée et est revenue sur la route.

tant que tu tiens le volant c est une super aide a la conduite, en particulier pour tous les moments d inattention qu on a tous au volant. La voiture se trompe, mais surveille en permanence aussi bien la route que d éventuels chauffards et ça je ne voudrais plus m en passer.

Il faut pas oublier qu’on sacrifie encore plus de vie a attendre un résultat a 100% pour déployer ce type de technologie. Donc la solution intermédiaire ou on demande de rester maître du véhicule est idéal pour améliorer le système en situation réelle.

Sur le fond, la famille n’a pas tort : Tesla se sert de cet autopilote (pas au point) comme d’un argument de vente, mais explique aux utilisateurs qu’ils ne peuvent pas s’en servir en tant que tel (puisqu’il est contractuellement précisé qu’il est nécessaire de tenir les mains sur le volant). Il y a quelque chose de profondément schizophrène là dedans. Alors que que l’on arrête d’appeler cette voiture une voiture autonome, et que Tesla désactive ce système complètement sur les voitures vendues au client tant qu’il n’est pas au point (le sera t’il un jour), ainsi, ces derniers seront obligés de garder les mains sur le volant, sans ambiguïté.

C’est bien la toute le problème, ces technologies infantilisent plus qu’elles responsabilisent les conducteurs.
A faire croire que la voiture peut tout et nous protéger a 100% est dangereux.

Musk promet des voitures autonomes, affirme depuis 2017 qu’ils en sont très proches… que tout repose maintenant sur la législation… mais en fait euh non, faut garder les mains sur le volant et surveiller le comportement de la voiture en plus de la circulation.

Au revoir Tesla, tu ne survivras pas au marketing de Musk et aux promesses non tenues.

Je ne dirais pas que ça infantilise mais plutot que ça abaisse fortement ta vigilance, ta concentration, voir meme ta conscience du danger donc ca te donne un sentiment de déresponsabilisation.
Dans une telle voiture, sous autopilot, tu as beau avoir les mains sur le volant, tu vas relacher ton attention c’est une évidence. et meme si la camera rate le marquage au sol tu te dis qu’au pire le radar LIDAR empechera un accident avec un obstacle … et pourtant, non.
Ceux qui ont reproduit l’accident ont pu l’éviter de justesse car ils étaient vigilant et savait ce qui se produirait, mais la première fois il était impossible de prévoir et le temps de s’en apercevoir il était trop tard. A 100km/h un obstacle proche arrive très vite.