Commentaires : Les Tesla ne seraient pas suffisamment sûres pour la conduite autonome sur routes ouvertes

Déjà que l’on nous pond des voitures avec lesquelles il faut s’arrêter régulièrement, pendant très longtemps pour les recharger, que l’on laisse au moins le plaisir de conduire les chariotes électriques aux conducteurs

Je ne suis pas près d’abandonner mon diesel avec lequel je peux faire de centaines de Km sans m’arrêter et que j’ai plaisir à conduire là où je veux.

1 « J'aime »

Je vois pas trop le rapport. J’aime conduire, peu importe la motorisation, mais 600km sur l’autoroute, c’est chiant et fatiguant => pour moi aucun plaisir.
Et pour le coup, pour avoir pu rouler pas mal avec des bagnoles avec 1 tonne d’aide à la conduite (maintient de file, freinage auto, machin de distance, régulateur intelligent, …) sur autoroute, c’est super bien ! C’est plus agréable et tu te fatigues beaucoup moins.

Après, si c’est fun pour toi l’autoroute… ça se déconnecte hein, c’est pas obligatoire.
Par contre, hors autoroute / voies rapides… c’est compliqué encore

4 « J'aime »

Aux usa ils n’ont pas les mêmes routes tordues qu’en Europe… cqfd

Sauf que quand il y a un mot qui est responsable ? Qui assume les conséquences ?

Vous faites erreur.
Les deux premiers modèles a avoir été certifiés avec le niveau 3 sont européens…
Mercedes-Benz EQS et Classe S
Donc non, légiférer n’est pas empêcher.

2 « J'aime »

E-XAC-TE-MENT

Comme le dit un GRAND visionnaire :

But you know, there’s a limit. You know, at some point, safety just is pure waste. I mean, if you just want to be safe, don’t get out of bed, don’t get in your car, don’t do anything. At some point you’re gonna take some risk, and it really is a risk/reward question. I said, « I think I can do this just as safely by breaking the rules. »

Mais vous savez, il y a des limites. À un moment, la sécurité, c’est juste du gaspillage. Je veux dire, si vous voulez être en sécurité, ne sortez pas de votre lit, ne prenez pas votre voiture, ne faites rien. À un moment, vous allez devoir prendre des risques, et c’est vraiment une question de gestion du risque. Je dis ”je peux faire ça aussi sûrement même en brisant les règles”.

1 « J'aime »

Allez jeter un oeil sur les ZFE qui arrivent en 2025, vous allez vite déchanter avec votre diesel puisque vous perdrez votre liberté d’aller et venir. Les diesels d’occasion vont d’ailleurs devenir invendables rapidement.

Ok. Mais ma tesla en conduite autonome va de mon parking à celui du restaurant à 40km sans que je ne fasse quoi que ce soit. A travers l’interstate et les rues et circulation de Seattle qui valent bien celles de paris, avec les dénivelés de San Francisco en plus. Aucune bmw ou Mercedes ne sait faire ça.

Ton point illustre très bien le problème : l’Europe régule, les marques européennes s’alignent à la régulation et obtiennent des points de participation. Mais la technologie de pointe n’existe pas en Europe, elle y est interdite. Un jour pas trop lointain tesla sortira la conduite de niveau 5 et l’Europe ne l’aura pas vu venir, persuadée qu’elle est que c’est trop dangereux.

J’aimerais voir la France prendre plus de risques et sortir des merveilles technologiques comme l’était le tgv dans les années 70/80.

1 « J'aime »

L’IA ne rivalise pas avec les avocats, médecins, (…) elle est utilisée par eux pour faciliter/accélérer un travail préliminaire puis ce sont ces humains qui décident d’en valider le résultat avant de l’exploiter.

Et cela étonne encore du monde que Musk ne respecte rien et ne prend aucune précaution juste pour se la pêter sur Xwitter ? Mettre sur la route une beta frise l’incosncience. Je n’ai jamais signé de clause pour partager ma route avec une voiture en béta…

1 « J'aime »

Le principal est-il de trouver un responsable ou de diviser par un facteur (très) important le nombre d’accidents (on peut presque totalement les supprimer à terme) et d’améliorer le quotidien de milliards de personnes ?

1 « J'aime »

Voici comment je te vois:
download

Et vous serez également le premier à pester et accuser si la technologie cause le décès d’un de vos proches.
Tout est question d’équilibre.

« Disons qu’une IA foire très souvent »

généralisation abusive, ça dépend totalement des IA , de leur niveau de spécialisation. certaines font bien mieux que les humains, et depuis longtemps (deepblue, alphago, alphafold …)

« Si tu foires 1 fois en 10000 heures, c’est déjà beaucoup trop, car ça fera un mort. »

pas nécessairement, ça fera un accident.

par contre, à 1.5h de déplacement quotidien, 10 000h ça fait 25 ans de conduite en domicile/travail.

Si la moyenne nationale n’avait aucun accident en 20ans déjà, ce serait probablement mieux que la conduite humaine.

Maintenant si on prends une approche bayésienne :

  • prenons UNE caisse qui fait juste autant qu’un humain : statistiques neutres : c’est déjà à mon avis un argument POUR la machine.

  • prenons une majorité de caisses dans le trafic qui dans la situation initiale, faisaient juste aussi bien qu’un humain, on se retrouve avec un parc auto qui aura un comportement beaucoup moins erratique que s’il était conduit par des humains.

  • du coup on baisse la charge d’interprétation des machines, et on abaisserait probablement très fortement l’accidentologie, par un trafic devenant beaucoup plus prédictible.

  • cette prédictibilité profiterait même en boucle aux derniers chauffeurs humains, c’est comme jouer contre des bots dans un jeu vidéo

"Autrement dit, la conduite autonome n’a pas le droit à l’erreur. "

Elle a le droit à l’erreur, mais pas plus, en moyenne, que la moyenne des humains.

" Alors que l’IA est assez bordélique et dit souvent de la merdouille."

ne confonds pas le IA génératives, très particulières, avec des IA de pure reconnaissance de situation ( typiquement la conduite autonome) .
La surcouche générative+ transformers c’est une branche totalement à part du processus.

Et concernant Musk et Tesla, on a un problème fondamental, l’absence de Lidar, qui mène à une « absence de certitude » et un mode exclusivement déductif.
C’est très probablement la clé de tous les foirages nocturnes et freinages fantômes : jamais un système à mesure absolue et discriminant n’informe l’IA d’une certitude de distance envers l’obstacle, elle le devine par photogramétrie stéréoscopie, N fois par seconde (elle remodélise en 3D l’environnement en comparant les écarts de rendu entre deux photos)

ça a beaucoup d’avantages mais des défauts si fondamentaux qu’aucun de ses compétiteurs n’a abandonné le Lidar, et ça a valu un divorce entre MobilEye et Musk au départ du projet.

Ça répond pas à mes questions !
C’est pas pour autant que je suis contre mais il faut bien trouvé des réponses à toutes les questions. Lâcher ce type de techno dans la nature implique des conséquences, il faut les assumer et prévoir ce qu’il peut se passer de pire.
C’est facile de sortir des statistiques sur un forum de Clubic, c’est déjà moins facile d’expliquer à des parents, que leur enfant a été tué parce qu’il y avait un scénario qui n’avait pas été prévu et paf le gosse… Pas sûr qu’ils l’acceptent comme ça.

mais ils ont une conduite plus tordue qu’en europe :

Sauf que quand il y a un mot qui est responsable ? Qui assume les conséquences ?

Mercedes et Volvo ont tranché : sous autopilot, la marque assume la responsabilité assurentielle.

le pire c’est que c’est un non-problème, une assurance tout risque pour un humain, qui peut avoir un comportement absurde c’est déjà pas cher, et ça comprend vol / perte / incendie / pare-brise.

Alors assurer exclusivement l’accidentologie potentielle des heures d’autopilot c’est que dalle financièrement comme risque pour la marque.
l’attitude de Tesla sur ce dossier est d’autant plus ridicule et injustifiable. Tesla aurait du contracter une assurance pour tout les acheteurs du très cher FSD, fin de la polémique

1 « J'aime »

Et cette attitude cavalière envers la sécurité TUE des gens. C’est ce que les règles servent à éviter.
Pour info, le ”grand” visionnaire que je cite ici est Stockton Rush, l’abruti responsable de la mort de 4 personnes, qui parle ici du Titan, le sous-marin en carton qui s’est disloqué à plus de 3000 mètres de profondeur en juin dernier.

J’ai du mal à y croire. Preuves ?

1 « J'aime »

« Pour la fin de l’année » ?

Ca fait bientôt 8 ans qu’on entend ça juste après les voeux de bonne année. S’il y a deux choses pour lesquelles Elon Musk est très fort, c’est pour faire des promesses et annoncer des dates, aucune des deux ne se concrétisant. neutre

2 « J'aime »

C’est le hardware 4, le trois est plus aboutit pour le moment, le temps que l’entraînement du 4 se termine. Mais tu verras que beaucoup de scénarios sont documentés.