Commentaires : De simples images projetées peuvent induire en erreur les pilotes auto Tesla (et d’autres)

Quand un Airbus A380 se pose sur la route face à une Tesla qui arrive en sens inverse il parait que cela gêne aussi le pilote de la Tesla

Il n’y a pas plus de communication avec les pilotes humains des autres véhicules….
et il y a des conducteurs plus bigleux que les caméras… Si le pilote humain était si parfait, il n’aurait jamais été question de le remplacer par un automatisme. Et il y a moins de barrières de passage à niveau qui ne se baissent pas au passage d’un train que lorsqu’il y avait un garde barrière quelquefois trop bourré pour sortir tourner la manivelle.

2 « J'aime »

Oui désolé j’ai appuyé sur le mauvais bouton :pray:

Pour les voitures, c’est surtout faire une flotte de taxis automatisés. Il l’a d’ailleurs dit. Dès que la conduite automatisée est au point il ne vendra plus de voitures aux particuliers.

alors qu’ils mettraient leurs 2 grosses fortunes ensemble on y serait déjà sur mars (je plaisante et j’exagère bien sur :D)

Tu expliqueras ça aux familles des gens tués par des autopilot
cf la SDF et son vélo, la voiture Uber avait bien repéré la cycliste mais elle a mal interprété la situation. Elle l’a analysée comme un faux positif, comme par exemple un sac plastique qui virevolte et c’est pour cela qu’elle n’a pas freiné, ou la remorque du semi là encore bien vu par le système Tesla mais pris pour un possible reflet de soleil … Les derniers % ne pourront pas de si tôt être éradiqués. Trop de faux positifs entrainent un véhicule inutilisable, qui s’arrête toutes les 5 minutes, donc ils sont filtrés.
Quand je prend une décision au volant, je dois en assumer les éventuelles conséquences. Qui est responsable des % d’erreurs considérés comme admissibles sur les autopilot?

1 « J'aime »

Automatiser une ligne de métro, c’est relativement simple : pas d’intersection, de changement de file pour doubler, pas de piétons, pas d’animaux (des rats surement, mais pas d’IA pour les éviter), toutes les situations sont envisagées et rentrent dans les cases. Automatiser une voiture, c’est une autre histoire. Les situations à risques ne sont jamais strictement identiques à une autre, d’où une « interprétation » de cette situation qui ressemble à xx% à celle que l’autopilot a dans sa base et la réaction correspondante mais il n’y a pas de décision réfléchie.

L’autopilot est supérieur à un conducteur qui panique face au danger (ferme les yeux, lâche le volant, …) ou inexpérimenté (non, le permis ne suffit pas à savoir conduire), mais il lui manque l’essentiel : l’intelligence, la vraie (la réflexion, le libre arbitre, …)

Je n’ai tué personne, les autopilot, si (cf ma réponse à rexxie)

Tu as tronqué ce que j’ai dit et lui a donné un sens complètement différent. :rage:

T’avais peut-être pas lu yoda_net ? :wink:

Tu regardes trop de films.

Concernant les entreprises de Musk.
Tesla est toujours loin d’être rentable, mais survie grâce à la com de son pdg. SpaceX n’est viable grâce à la NASA qui la subventionne.
Entre nous, quand je vois la qualité de fabrication des Tesla au prix où elles sont vendue, ça ne me donne pas envie.

Le véhicule aura les mêmes règles que toi: une priorité dans les interdictions, il aura l’avantage d’étudier plus de situations que ton réflexe d’évitement (calcul de trajectoires possibles et probables du piéton, analyse des véhicules approchants), voir même il pourrait y avoir une communication de la manœuvre aux autres véhicules pour leur « déléguer » une partie du boulot en laissant la trajectoire d’évitement libre. C’est cet ensemble de choses qui feront que les véhicules autonomes seront beaucoup plus surs que les conducteurs.
Mais effectivement cela reste de la théorie pour le moment! :stuck_out_tongue:

Et pour les circonstances exceptionnelles de la route comme l’aquaplaning ou la neige, c’est plus un problème de guidage (le route n’est plus visible) qu’un problème de conduite. Contrairement à un conducteur humain, la voiture connait exactement ses capacités en fonction du terrain et peut adapter bien plus rapidement sa conduite. Les informations a disposition du calculateur sont bien plus nombreuses et plus précises que celle à la disposition d’un conducteur (vitesse de chaque roue et accélérations sur chaque axe, consignes de puissance + freinage + direction et compression des suspensions, … donnent un reflet exacte de l’adhérence).
Un exemple tout con: sur la neige, le réflexe courant est de sauter sur les freins dès que l’on sent que le train avant se dérobe et le problème est amplifié, alors que juste un lâcher d’accélérateur ou un très léger freinage permet de reprendre rapidement de l’adhérence (sur une traction, une propulsion est encore plus délicate à gérer)…

1 « J'aime »

Pourtant il n’a pas tort! Même un excellent pilote sera dépendant de ses hormones, le stress intense ne fait pas toujours prendre la bonne décision. Au moins l’ordi continu a analyser la situation de la même façon, même si il sait que de toute façon c’est foutu, il tentera de minimiser les dégats.

1 « J'aime »

L’IA existe! C’est la notion d’intelligence qui n’est pas la même pour tous.
Dans la définition de l’IA telle qu’on l’utilise en informatique, c’est un système qui simule une réflexion. Même une calculatrice pourrait être qualifiée d’IA en poussant le bouchon un peu loin! :stuck_out_tongue:
Et je pense que tu confonds les algorithmes et le deep learning. Le deep learning n’est pas juste des actions à reproduire dès que l’on tombe dans le même cas de figure, c’est dégager un comportement suivant une série d’information en amont. La difficulté c’est d’avoir des jeux de données de départ qui ont du sens, ce qui est très complexe et très long dans le cas de la conduite. On peut dire que Tesla n’entraine pas bien son IA car il n’y a que les routes de certaines villes plutôt au sud des States qui sont utilisées, d’ou par exemple un comportement inadapté sur la neige. La réaction du système n’est pas prévisible car on ne peut prouver que l’apprentissage est complet autrement que par des statistiques (le processus est complètement boite noire). En général au final, on retrouve un comportement très humain assez troublant avec des biais qui sont très proches des biais cognitifs humains classiques puisque les jeux de données ont été sélectionnés par des humains. Pour reprendre l’exemple de la neige, un conducteur inexpérimenté risque de se retrouver planté au premier démarrage en côte avec le réflexe d’accélérer plus fort si la voiture n’avance pas, tout comme l’IA (à part peut-être que l’IA aura un retour de l’ABS comme quoi seules les roues motrices tournent donc il y a un problème inconnu et risque de se mettre en erreur…).

un métro , c’est facile, c’est vrai…
un train en environnement ouvert, c’est déjà beaucoup plus compliqué (je ne parle pas de simplement le faire avancer, mais réagir à toute autre situation).
et une voiture complétement autonome sans équipement de la chaussée, dans un environnement de voitures non autonomes, eh bien , revenez dans 20 ou 30 ans.

OK les voiture autonomes ne sont pas infaillibles.
Il y a 3500 morts et environ 60 000 blessés en 2019 donc faut croire que l’humain n’est pas infaillible non plus.

malheureusement non, c’est du vécu et la personne avait le permis (raté avant une fois ou deux de mémoire, mais elle avait fini par l’obtenir)

Je suis désolé pour toi mais la voiture ne sait pas rouler sur la neige.


Valeo devait faire un test de son système sur la place de l’étoile pendant une journée normale en septembre 2017, les résultats n’ont pas été communiqué.
La voiture automatisée ne peut être viable que si elle est entourée d’autre voiture automatisé. A partir du moment où vous faites cohabiter 2 systèmes, cela ne peut pas marcher.
Je pense qu’il faut que le monde arrête de fantasmer sur cette IA suprême. Je prédit un nouvel hiver de l’IA dans 10 années à venir.
Les milliards dépensés n’apporteront pas du tout les gains souhaités.
Certain métier seront certes en tandem avec un humain mais pour le reste on en est loin.

Heu, j’ai justement dit que ça ne marchait pas pour la neige par manque d’entrainement et difficultés non réglées… :stuck_out_tongue:
Pour le moment, sur simulation ça passe plutôt bien, on arrive même à être aussi rapide qu’un vrai pilote alors que ce n’est toujours pas le cas en bonnes conditions. Reste a transposer IRL et ce n’est pas évident.

Pour l’IA, je vais en utiliser (optimisation de volumes et de trajectoires, production de données manquantes, simulation de systèmes complexes avec effet réseau important) et ça marche très bien pour des « algos non programmables » que l’on a: la force brute n’est pas envisageable (plusieurs semaines de calculs alors que l’on a besoin de quasi temps réel sur ordis bureautiques), les algos génétiques aident mais on est souvent loin de l’optimum et les temps de calcul restent trop longs (plusieurs heures), les « systèmes experts » d’il y a quelques années sont complètement dépassés (en fait ce ne sont que des stats associés à une base de donnée et c’est bien trop rigide et impuissant face à de nouvelles entrées). Les résultats sont très satisfaisants!

c’est vrai

Et le problème est bien là. l’ordinateur a des algorithmes et des schémas de réponses, mais ne pense pas. Il y a eu des tests dans une revue auto sur les freinages automatiques. Certaines freinent trop tôt ou sans raison, d’autres freinent trop tard et ne peuvent empêcher la collision alors qu’un simple changement de voie permettait d’éviter l’accident.

Autre exemple sur Clubic même, dans le test de la Golf : « À deux reprises sur de petites routes de montagne, le système d’urgence s’est mis en route sans aucune raison apparente en stoppant net le véhicule. Les erreurs d’interprétation des systèmes semi-autonomes comme celle-ci vont sans doute diminuer au fil des évolutions technologiques, mais elles demeurent pour le moment encore assez fréquentes que cela soit sur la Golf ou d’autres modèles concurrents » https://www.clubic.com/voitures-hybrides/article-880737-1-golf-etsi-150-style-vaut-8e-generation-voiture-vendue-europe.html

Il suffit de contacter une hotline lambda et tomber sur un opérateur sans connaissances techniques qui va juste cocher des cases pour vous indiquer LA solution, même si elle n’a rien a voir avec le problème. J’ai en mémoire l’échange avec un FAI qui me demandait de faire un « démarrer exécuter cmd » (qui n’existait pas sur MON système d’exploitation) puis ping 192.168.1.1 (inexistant, ip modifiée dans mon organisation réseau) pour un problème d’absence de tonalité sur une ligne VOIP avec internet fonctionnel et modem déjà redémarré. En suivant ce chemin, la réponse ne pouvait être qu’à côté de la plaque !

La voiture autonome suit ses schémas pré-établis doit respecter les règles de circulation (et heureusement sinon qui sait quelle option hasardeuse pourrait venir de ses calculateurs), mais en faisant ça, elle ferme la porte à certaines fins heureuses. Je ne confierai pas ma vie à un autopilot, trop artificiel et pas assez intelligent à ce jour