Forum Clubic

Commentaires : L'AutoPilot de Tesla confond Burger King et panneau stop, le fast-food en fait une publicité

L’AutoPilot de Tesla a récemment confondu un panneau publicitaire Burger King avec un panneau de stop.

2 J'aime

trop bête cette tesla et pas étonnant qu’il soit dernier du classement J.D Power

1 J'aime

Mais non, son IA est tellement développée qu’elle sait quand son conducteur a faim et même ce que st bon pour lui!

4 J'aime

Et celle de tesla, actuellement la seule voiture qui embarque cette technologie, de la pub gratuite pr ces 2 entreprises.

2 J'aime

Faut être suicidaire pour utiliser l’autopilot… c’est loin d’être au point…

1 J'aime

Avec quelques morts dans le Monde dans une Tesla avec Autopilot activé…je pense qu’on a plus de chances de mourir du Covid19.

On a surtout plus de chance de mourir dans un accident causé par un as du volant…

Tout à fait, un des accident les plus graves que j’ai failli avoir et n’ai évité que grâce à mes réflexes a failli être causé par un utilisateur de Tesla qui a accéléré comme un porc…celui-là n’utilisait sûrement pas l’auto-pilot et voulait en mettre plein la vue aux autres yeux

Bah moi ce sont souvent des utilisateur de grosses allemandes qui devaient se sentir en sécurité, comme quoi…

1 J'aime

Franchement confondre le panneau Burger King avec un stop, ça monte à quel point le systeme de Tesla n’est vraiment pas au point. Si ça se ressemblait je ne dirais pas mais là ils sont différents.
sur YT on voit pleins de vidéos sur cet autopilot et sa reco des feux et panneaux, c’est proche de la cata. Mélange des feux de tramway avec ceux pour les auto, confusion entre les panneaux de vitesse de voie sortante avec la voie normale sur autoroute, etc. Ca marche 9 fois sur 10 mais sur un trajet ca peut faire plus d’une vingtaine d’erreurs, voire plus. c’est dangereux.

Aujourd’hui, avec le temps qui passe on se rend surtout compte que Tesla c’est pas fiable, qu’il y a des soucis de finition et QA et que l’autopilot est loin d’etre efficace (voire meme dangereux). On peut comprendre qu eles fans de la première heures ont un dénie des défauts avec l’augmentation de clients plus exigeants et objectif ont commence vraiment à voir les nombreux problèmes et défauts faire surface.

Tu as des statistiques où c’est uniquement une impression ?
(Je parle de la partie dangereuse)

1 J'aime

T’es au courant qu’il y a eu au moins 3 morts ? et des accidents (par exemple en Corée la Tesla qui s’encastre sur autoroute dans un camion couché, un miracle qu’il ait survécu)

Oui et ?

T’es au courant des règles de base sur les stats ? Il faudrait au minimum comparer au nombre de km parcourus et voir si c’est mieux ou pire qu’avec des voitures sans ce système.

1 J'aime

bah ça tue. Ca veut dire quelque chose pur toi ?
Concernant le rapport km parcourue et comparer avec les autres ça ne veut rien dire dans la mesure où il est impossible de faire et qu’il n’existe pas de stats sur les accidents éviter par l’humain.
LE fait est que ton systeme a tué déja 3 fois, qu’il aurait pu en tuer d’autres (celui qui en rentré dans le camion couché serait mort si la cargaison avait été plus solide.

On est d’accord qu’aucun système n’est infaillible, mais je pense que le vrai problème dans le cas de l’auto-pilot, c’est avant tout les utilisateurs qui s’en remettent totalement à lui en le croyant capable de gérer n’importe quelle situation…il est probable que les accidents dont l’a-p est responsable auraient peut-être pu être évités si les conducteurs avaient été normalement attentifs neutre

1 J'aime

Justement, le pricinpe d’un tel systeme d’autopilote c’est de partir du principe que le conducteur peut etre idiot, parce que ça arrive.
Le soucis c’est qu’à force de voir Musk faire le buzz avec l’autopilot qui est génial et sécuritaire et bien certains fans en ont une confiance aveugle. Et meme ce terme autpilot est trompeur, il devrait s’appeler assistant à la conduite. Un autopilot ça veut bien dire ce que ça veut dire, c’est autonome et certain le prenne au pied de la lettre. tu auras beau avertir que le conducteur doit rester maitre certains n’héisteront pas à laisser le systeme tout gérer, meme en cas de danger.
C’est donc un problème en amont. Pour moi la faute à Tesla qui trompe le client en survantant un systeme

Toujours le facteur humain, quoi ^^

Et je ne doute pas que beaucoup d’automobilistes, quels que soient les marques et les modèles, se sentent en parfaite sécurité sous prétexte qu’ils ont des assistances électroniques diverses, persuadés que celles-ci les sortiront de n’importe quel mauvais pas…c’est comme ça qu’on devient trop confiant et pourquoi un certain nombre arrivent à se planter tous seuls tss.gif

Ou pas.

Seuls des statistiques vérifiables pourraient nous donner des indications : s’il y a moins d’accidents aux kms parcourus avec auto-pilot que sans, c’est que c’est moins dangereux.
Si c’est l’inverse, l’autopilot est néfaste.

De plus vous vous focalisez sur les accidents, mais le nombre de témoignages de personnes qui affirment avoir été sauvées n’est pas nul.

On en revient au point de départ : sans statistiques, on ne peut strictement rien conclure (Sauf à s’appeler Raoult)