Commentaires : Elon Musk affronte le "mille-feuille bureaucratique" européen pour faire approuver la conduite autonome de ses Tesla

Argument homme de paille, je n’ai pas dit de faire des tests de toutes les situations, mais juste rigoureux : Mercedes y est arrivé, pourquoi Tesla n’y arrive pas. Peut-être parce que finalement, il ne passerait pas, juste pour leur impossibilité de fonctionner sous la pluie.
Pour le coup de Musk et Tesla, c’est bien la faute de Musk d’avoir voulu personnifier ses entreprises : c’est bien lui qui a fait un procès pour se faire déclarer fondateur de Tesla, alors même qu’il n’en est pas. C’est bien lui qui a décidé de supprimer les LIDAR, c’est bien lui qui a pris la décision de développer son Cybertruck, c’est bien lui qui a orienté les choix de son robotaxi (2 places, ne pouvant pas tourner sous la pluie). Donc en effet, il ne passe pas lui même les certifs, mais c’est bien lui qui prend les décisions stratégiques qui font qu’il ne peut peut-être pas réussir ces tests. C’est bien lui aussi qui fait du foin pour tenter d’éviter les méthodes rigoureuses auxquelles tous les autres se plient.

En parallèle, Numérama totalement gouroutisé se gargarisent de la réussite du transfert de l’usine aux places de parking, en faisant la preuve que le FSD fonctionne en Europe! On les a connu plus rigoureux, ils se mettent au niveau de Clubic.

1 « J'aime »

Ce que je veux dire, c’est qu’ici, on arrive dans le cas précis où la machine simule l’homme, c’est à dire qu’elle doit s’adapter à un environnement inconnu. Or, les tests d’homologation, sauf erreur de ma part, sont déterministes (dans cette situation normalisée, la machine doit faire mieux que X).

Il y a un écart de logique flagrant ici, c’est le même problème qui a créé le dieselgate à l’époque, dans des conditions de tests prédéfinis et connus, les constructeurs cheatcode le comportement de leurs machines pour passer le test, ça ne prouve en rien que la machine fait ce qui est attendu « dans la vraie vie ».

Aujourd’hui, on subit les problèmes de la qualité de l’air qui tue plus de monde que les accidents routiers, pourtant, chaque voiture indépendamment avait été homologuée pour ne pas émettre autant de particules.

Bref, je comprends les cheveux que les équipes de Tesla s’arrache, car leur process est, il me semble, le bon, les tests ne sont qu’une hérésie.

Pour faire une analogie, vu que la machine veut conduire seule, comme l’humain, techniquement, il faudrait que la machine passe le permis de conduire, comme l’humain, pour être autorisée.

Pour savoir si la machine peut conduire dans la vraie vie seule, il faut lui faire faire des millions de km et comparer son taux d’accidentologie avec celui de la moyenne des humains. Si il est plus faible, je ne vois aucune raison de lui refuser l’autorisation de conduite. Mais pour collecter ces statistiques, il faut l’autoriser à faire ses millions de km.

En ce qui concerne Mercedes, ça n’a rien à voir AMHA. Mercedes, c’est du niveau 3 (c’est à dire que l’humain reste au commande la majorité du temps et doit pouvoir reprendre les commandes à tout instant). C’est autorisé en France déjà et, je pense, Tesla doit être niveau 3. Ici, ils parlent de niveau 4 (plus de 60km/h, sur route avec piste cyclable et passage piéton), ce qui n’est pas autorisé en France pour l’instant.

1 « J'aime »

On est d’accord que dire qu’un test n’est pas efficace parce qu’on peut tricher c’est pas un argument valable au sens où il détruit la notion même de test ?

D’ailleurs il s’agissait bien de triche puisque les constructeurs ont été condamné et lourdement.

Et donc les tests d’homologation ne sont pas bons, et il faut préférer les donner réelles, collectées et fournies par Tesla ? Et là y a pas possibilité de triche ? J’ai l’impression qu’il y a quelque chose qui ne fonctionne pas.

L’argument de Tesla, c’est surtout que leur système évolue constamment. Et je ne vois pas en quoi, on pourrait faire une homologation, puis suivre les données réels une fois les véhicules sur la route.

Quand des vies sont en jeu, je pense que ceinture bretelles, c’est pas mal. C’est surtout que Tesla comme les autres constructeurs ne supporte pas les régulateurs et voudraient être eux-mêmes leur propre régulateur. Mais on a la même chose dans la TC, dans l’industrie agronomique, etc.

Qu’on se comprenne bien, moi aussi j’aime bien les données en condition réelles mais il me semble qu’on ne peut pas « tester » avec de vraies gens. Perso les normes européennes font qu’un cybertruck ne roulera pas en Europe et j’en suis très heureux. Pas besoin d’avoir réellement cette bouse éclater un piéton pour s’en prémunir.

Bref au final, dans un premier temps, tu passes les homologation comme un grand garçon, et ensuite une fois sur la route, tu utilises ton système pour améliorer rapidement et en fonction des retours utilisateurs et de tes données.

1 « J'aime »

Quel process, celui de la méthode Space X : je lance et si cela explose, je corrige?

Il faudrait surtout que les données collectées soient publiques et contrôlables et opposables, ce que Tesla (et leurs concurrents aussi a priori) ne voudront pas. Il n’y a qu’à voir, alors même qu’il y avait eu des accidents, comment Tesla a caché les données. Comment leur faire confiance dans ce cas là?

Et bien non, Tesla n’est pas niveau 3, ils sont juste niveau 2. Pour être niveau 3, il faut vouloir passer les homologations, ce que Tesla ne veut pas.

Sont-ils niveau 4 aux US au moins? Et je reviens au point que j’ai signalé au départ, comment faire confiance à une boite qui a eu comme premier réflexe de cacher les données lors d’un accident?

C’est une bonne question mais j’espère que la réglementation sur la sécurité routière et ses contrôle ne repose pas sur la confiance :sweat_smile: . Sinon, oui on est dans la me… :smiley:

1 « J'aime »

Tu parles de Tesla ici, moi je parle du process de test qui est inadapté. Je ne suis pas un évangile de Tesla (bien au contraire, je n’ai jamais voulu acheter une Tesla après avoir vu l’intérieur et leurs pratiques). Le comportement de Tesla est typiquement le problème d’une société capitaliste à mort, mais il n’est pas le seul sur le marché (Volkswagen, Stellantis, Monsanto…). Cela n’empêche en rien de reconnaître comme valide le point de Tesla, qui est que le principe de tests déterministes pour valider le comportement d’un véhicule dans un environnement non déterministe ne peut pas fonctionner.

Pour info, le taux d’accidentologie est public (au US et très probablement en Europe aussi), car il est collecté par les assurances et les forces de l’ordre. Le problème, c’est de distinguer lors d’un accident, si l’autopilot/FSD/conduite autonome était activé.

Là, il y a 2 possibilités:

  1. Soit le taux d’accidentologie est plus faible que la moyenne, et techniquement, qu’il soit activé ou pas, on s’en fout, c’est un plus il faut l’autoriser
  2. Soit le taux d’accidentologie est plus élevé que la moyenne dans ce cas, le constructeur pourrait communiquer le taux avec et sans autodrive (ce que fait Tesla, mais, comme tu dis, à prendre avec des pincettes). Note qu’ils ne peuvent pas trop mentir dans ce cas, si la victime survit, elle dira si elle avait activé (ou pas) l’autodrive. Il ne reste que les cas où la victime est décédée, mais dans ce cas, il y a une enquête, et pareil, il est assez difficile de mentir pour le constructeur (mais c’est pas infaillible, d’autant plus qu’en Europe, les boites noires vont devenir obligatoires pour cette raison notamment).

Je ne sais pas quel niveau sont Tesla, en France/EU. Ils sont clairement niveau 3 voire 4 aux US. Je ne parle pas d’homologation, mais de performance technique brute.

Je pense que Tesla s’en balec d’être niveau 3 (ou 4 d’ailleurs). C’est de la b…tte intellectuelle de vouloir classer les performances suivant des règles strictes. Typiquement le niveau 3 c’est une débilité (exemple: la voiture peut rouler de manière autonome sur l’autoroute, mais à moins de 60km/h, on voit que le législateur ou le régulateur, il doit pas souvent prendre l’autoroute, voire qu’il ne connaît pas le code de la route…)

Tesla veux être autorisé à rouler avec leur système activé en Europe, pour pouvoir collecter les données nécessaires à l’entrainement. Le niveau d’autonomie, ils s’en tapent. Oui, la voiture lorsque le système activé conduit de manière autonome mais sous supervision humaine. On est donc dans un mix de niveau 4 / niveau 2 qui n’existe pas dans la classification (ce n’est pas un niveau 3, qui est inutile dans la vie de tous les jours).

1 « J'aime »

Non : les US utilisent les niveaux SAE, et Tesla est au niveau 2 sur cette échelle.
Ex : https://cars.usnews.com/cars-trucks/advice/tesla-full-self-driving

1 « J'aime »

Salut,

déjà je veux pas paraitre chiant et te donner l’impression de toujours contredire pour contredire hein. J’apprécie bcp la conv là perso.

Précaution prise y’a juste ce jugement qui me parait un peu rapide et parce que je le vois souvent je me demande ce que ça recouvre :

Il me semble que c’est un peu rapide et peut être que tu simplifies un poil trop parce qu’on est sur un forum et qu’il faut aller vite mais on est d’accord que c’est pas aussi simple que ça. Parce qu’imaginons un taux plus faible mais beaucoup plus grave, je ne suis pas sûr de vouloir l’autoriser. Imaginons que j’ai moins de chance d’avoir un accident mais que j’ai beaucoup plus de chance d’y passer… pas sûr d’être fan. Ou que ce soit une décision raisonnable.

Sur le fait que ce soit difficile de mentir, faut pas sous estimer Tesla (ou les boites en général). Ils feront sans doute trainer les choses au tribunal (enfin c’est probable). Et leur tendance à biaiser les résultats et manquer de transparence est assez bien documenté.

Au final, je suis tout à fait d’accord avec ton argument principal qui est qu’il faut se baser le plus possible sur des données réelles, je pense juste que la difficulté dans le cas présent c’est la sincérité du constructeur et la méthode.

Alors là, non… Si le véhicule a globalement un taux d’accidentologie plus faible indépendamment de l’activation ou non de la conduite autonome, ça ne veut pas dire qu’il faut l’autoriser…

Dans tous les cas, il faut comparer l’accidentologie avec et sans conduite autonome sur le même modèle.

Parce que si un véhicule fait globalement 10% d’accidents en moins que la moyenne mais qu’il en fait 20% de plus quand la conduite autonome est activée, il y a bien un problème avec la conduite autonome…

1 « J'aime »

@MattS32 @Hanandano: Oui c’est sûr.
Dans la pratique, les VE (en général, mais Tesla beaucoup plus) ont une patate d’enfer, ce qui n’aide pas (hors conduite autonome) pour l’accidentologie.

Pour un humain, c’est assez difficile de rester à 30km/h lorsque la différence entre 30km/h et 60km/h, c’est 1° d’angle sur l’accélérateur.

Donc, si le taux d’accident est plus faible (en général), c’est que la conduite automatisée (pas forcément autonome) aide beaucoup, AMHA. Si le taux est plus fort, tu ne sais pas dire si c’est la faute à l’humain ou à la machine.

Mais si le taux est plus faible, je dirais, sans me tromper je crois, que c’est grâce à la machine.

Après c’est certain que le constructeur a intérêt à minimiser les rapports dans les accidents où l’automate est actif, d’où les boites noires pour éviter que le constructeur ne triche.

Notez que la triche n’est pas dans « l’auto pilote n’était pas activé » (car c’est facile à savoir, on voit les traces de frein lorsque c’est un humain qui freine avant que l’ABS s’active vs la machine qui ne bloque jamais les roues), mais plutôt « l’auto pilote s’est désactivé 30s avant l’accident, l’humain n’a pas repris le contrôle ».

Ça peut être aussi: « j’ai pas trouvé les logs de la voiture qui sont normalement transmis 24/7 à nos serveurs, mais là, non, nous avons eu une panne informatique à ce moment là ». Là aussi, la boîte noire supprimerait cette triche là.

Bref, en respectant les contraintes EU (notamment boite noire + SOS + 4G obligatoire + ADAS + …), je continue de penser que la conduite autonome devrait être autorisée, exceptionnellement, pour une période limitée (comme l’interfile pour les motards) afin de collecter les données nécessaire et de voir si ça s’améliore, à quelle vitesse, comment créer des tests représentatifs, etc…

Ca c’est vraiment la mauvaise excuse que seuls de mauvais conducteurs pourraient utiliser. Ma dernière moto faisait le 0-100 en à peine plus de 3 secondes, ce n’est pas pour ça qu’il était difficile de gérer sa vitesse et respecter les limitations. neutre

Tu sais quand même que les roues ne se bloquent pas « avant que l’abs ne s’active », qu’il est là pour précisément éviter que ça arrive ? heink

+1. Surtout qu’il y a sans doute pas une seule voiture électrique qui n’ait pas un régulateur et un limiteur de vitesse, donc si on n’est pas capable de gérer son accélérateur pour rouler à 30 quand c’est limité à 30, on met le limiteur et c’est réglé…

Perso je ne me sers jamais du limiteur. Parce que j’ai connu trop de cas dans lesquels un bon coup d’accélérateur était préférable pour éviter une situation critique. ^^

Oui, on peut outrepasser la consigne, mais ça induit un léger temps de réaction qui peut faire toute la différence. neutre

Mais elle est pas déjà en test en Europe ?