Commentaires : De simples images projetées peuvent induire en erreur les pilotes auto Tesla (et d’autres)

désolé, citation complétée.
Mais ça ne change pas la partie sur laquelle je répondais, à savoir que même si ils voient tout, ils peuvent mal interpréter et surtout mal réagir . . .

On est relativement d’accord, le vrai problème est là:

Mais je suis plus optimiste que toi! :smiley:
Peut-être que mon métier (ingénieur en info, architecture et big data) me montre trop régulièrement la supériorité de la machine sur l’homme… Quand je vois des spécialistes passer plusieurs semaines sur des problèmes pour trouver des solutions pas terribles et que je leur résous en quelques secondes… :smiley:

Pour la mauvaise interprétation ou la mauvaise réaction, c’est toujours à cause d’un entrainement défaillant (diversité, nombre de cas, cas hors normes trop prépondérants, mauvaise réponse donnée car les « pilotes » font aussi des conneries…), ou éventuellement plus grave (mais facilement remédiable de manière hardware) un manque de données.
Il faut toujours assoir l’analyse des problèmes par comparaison avec la référence (ici un conducteur humain). On sait que cela ne sera jamais totalement fiable, ne serait-ce que parce que le système n’est pas « prouvable » (définition informatique) ni validable à 100% mais il faut comparer aux performances humaine de manière statistique. Le fait qu’il y ait eu un mort ou que x millions de km ont effectués sans incidents n’ont aucun sens en soit, par contre que l’accidentologie des systèmes automatique se rapproche de celle des humain prouve que l’on avance. Le « seul » problème c’est qu’il faut des accidents pour avoir des données fiables et comparables, les incidents corrigés par un conducteur n’ont pas de signification suffisante :-/.

N’oublie pas que le radar voit à travers neige pluie poussière et fumée.
C’est comme pour nous les humains, l’IA apprend à reconnaître les intempéries et s’ajuste lentement. Elle n’en est qu’aux balbutiements mais le radar et les milliards de km accumulés dans toutes circonstances donne encore l’avantage à Tesla.
La simulation c’est nul, ça n’est que ça, une simulation qui n’aura JAMAIS tous les paramètres fins de la vraie vie.

Il y a déjà des millions de km tirés de situations de tempêtes dans les pays nordiques .

Encore une fois, même si l’IA est encore un enfant qui apprend, il n’oublie jamais rien!

Ils en ont une précieuse pour l’apprentissage de l’IA lorsque ces évènements sont réintroduits dans les boucles d’apprentissage.

1 « J'aime »

Bien sur, je voulais dire que la correction n’arrive pas forcément au bon moment et avec la meilleure solution, il faudrait un déroulement complet et une analyse pour proposer au système une bonne solution (pas forcément la meilleure). C’est pour ça qu’ils ont besoin de millions de km de tests, pour avoir un maximum de cas et aussi beaucoup de réactions différentes (lissage des actions préventives et correctives).

1 « J'aime »

Si tu t’y connais comme tu décris, je te suggères de regarder attentivement la demi-heure vidéo extraite du « autonomy day » que j’ai mis plus haut. Tu y découvriras l’approche de Tesla en apprentissage profond, basée sur quels principes et où ils en étaient déjà rendus l’an dernier.

La voiture autonome ultime n’a pas absolument besoin d’être connectée aux autres et conduira essentiellemnt avec sa vision, comme nous (mais en mieux), parce que les infrastructures et signalisations routières sont toutes visuelles.
C’est certain que supplémenter la vue par des radars, sonars et autres lasers va améliorer encore plus la fiabilité.

J’en frissonne déjà à m’imaginer passager d’une voiture sans volant qui fonce dans la neige ou le brouillard parce elle, elle voit!

1 « J'aime »

Je suis loin de m’y connaitre! :stuck_out_tongue: Mais je m’y intéresse personnellement et aussi professionnellement comme le sujet assez proche de ma « spécialité » du moment (trafic aérien). Je discute beaucoup avec des collègues (Akka) ou ex-collègues (Continental et Valéo) qui sont à fond sur le sujet.

1 « J'aime »