Des chercheurs sont parvenus à tromper plusieurs systèmes d’aide à la conduite, en projetant des images 2D sur la trajectoire des véhicules ou au bord de la route. Ils ont ainsi pu pousser les voitures à freiner ou à changer de direction, un comportement qui pourrait mettre en danger leurs conducteurs ou les autres usagers.
Je pense que les hackers vont bien se marrer sur les routes !
De simples images peuvent tromper les humains de la même manière. La vraie question est combien de gens font exprès de saboter la conduite des véhicules?
Les règlements de compte ne se feront plus à la kala
Y a pas besoin de faire de fausses images pour trompeur l’autopilot de la Tesla, elle y arrive toute seule dans la nature.
Y a qu’à voir les vidéos (meme récentes) sur les nombreuses erreurs de l’autopilot ça fait peur. La reconnaissance des panneaux de vitesse ne semble pas fonctionner (en tout cas en europe), les lignes au sol sont parfois mal percues et elle se rattrape parfois sur la voie voisins (ce qui peut engendrer des faces à face), il semble que les motards ne soient pas bien perçus, etc.
Bref oui l’autopilot peut etre bernés si on cherche à le faire, c’est normal puisqu’il est basé sur du visuel, mais ce qui est inquiétant c’est qu’il arrive à etre berné tout seul sans qu’on cherche à le faire.
De toute façon, l’autopilote sans système de pilotage intégré dans la chaussée et sans communication entre les véhicules, cela ne fonctionnera jamais correctement …
Pas trop envie d’etre dépendant de bug logiciel…
Encore un autre problème qui remonte sans bruit, c’est la détection des motos par ces soi disant véhicules autonomes…
À interdire, tout simplement.
ET bien, que l’on verbalise les plaisantins… (Ha, on m’indique que se sont de faux policiers sur le bord de la route)
Souvent l’interface siège volant as plus de bugs que l’autopilot…En tout cas, ça va tendre à le devenir.
Je suis tout à fait conscient de ça, mais les systèmes développés actuellement sont complètement anti sécuritaire…
Aucune communication entre véhicules, ce qui signifie aucune redondance si un système bug…
Aucun système de guidage autre que visuel avec traitement logiciel.
Chaque constructeur fait sa cuisine dans son coin, sans aucune compatibilités entre véhicules.
Je roule en moto, j’ai vraiment pas envie d’etre mal détecté par le véhicule suiveur, et ça, sans communication entre véhicules, on ne peut pas le garantir techniquement.
quand tous les constructeurs se réuniront autour d’une table pour mettre en place un système universel avec un équipement technique des infrastructures routières, j’adhérerais au truc…pas avant.
La voiture automatisée ne fonctionnera jamais sauf si elle évolue sur des voies entièrement dédiées.
La neige, l’aquaplanning, gestion de l’absence de marquage.
Une simu toute simple. 1 route avec ligne continue à gauche, trottoir à droite, passage pour piéton devant avec une personne qui traverse, la voiture n’a pas la distance de freinage nécessaire.
La voiture automatisée n’a pas le droit de traverser une ligne blanche ni de monter sur le trottoir. Freinage mais percute quand même le piéton.
L’humain peut faire un évitement en passant à gauche même si c’est interdit.
La reconnaissance des panneaux de vitesse a été brevetée par MobilEye il y a des années, donc Tesla ne peut l’utiliser. Une aberration selon moi, ils ont profité de la nouveauté de la technologie FSD pour faire breveter une évidence, comme le bouton de droite de la souris disons…
Au lieu de te concentrer sur les quelques erreurs de l’autopilot, parle nous plutôt des milliards de km conduits sans erreur et des rapides progrès du deep learning de Tesla.
La voiture autonome telle qu’on l’imagine n’existera jamais. Il est strictement impossible pour un ordinateur de prévoir l’imprévisible.
Au mieux, l’intelligence artificielle pourrait donner d’excellents résultats sur des événements prévisibles et très encadrés. Exemple : rester sur sa bande de circulation si le conducteur devait somnoler à un moment donné. L’IA permettrait d’éviter un accident là où l’humain n’aurait eu aucune chance.
Pour le reste, et ce n’est que mon avis, il est illusoire de vouloir prétendre à la faisabilité de la voiture autonome telle qu’elle est imaginée dans l’inconscient collectif à l’heure actuelle.
Le deep learning de Tesla est une fumisterie… au mieux il atteindra 95% de bons résultats… 5% d’erreur, ça te satisfait toi? lol
Musk s’est complètement planté en pensant que le visuel suffirait à une voiture autonome.
Ta Tesla ne sera JAMAIS autonome, tu seras sans doute mort avant de voir une voiture réellement autonome sur les routes d’ailleurs (comme beaucoup de nous).
Et dire que Musk prévoyait déjà cela pour 2017… zut, il va avoir quelques décennies de retard.
Le terme de voiture autonome ne veut rien dire les américains parlent d’automated vehicle. Être autonome veut dire, pouvoir s’affranchir des règles, ce que fera jamais une voiture sauf si elle bug.
Si dans une situation d’urgence où tu n’aurais pas eu ,d’après toi, la distance nécessaire pour freiner tu arrives à avoir le temps d’analyser la situation te dire je vais faire un évitement sur le trottoir et j’ai le temps par contre de vérifier entre-temps que je vais pas écraser quelqu’un d’autre. C’est que tu es vraiment un champion.
Je n’ai pas dit de monter sur le trottoir mais faire un évitement par la gauche, franchir la ligne continue. Avant de poster il faut lire correctement. Ou alors tu conduis en Grande-Bretagne.
Ça suffit à nous avec 2 yeux, pourquoi 8 caméras et un radar accompagnés d’une IA efficace n’y arriveraient pas ?
D’où sors-tu ces pourcentages et prédictions ?
Sais-tu au moins comment fonctionne cet apprentissage ?
Je ne dis pas qu’en l’état actuel ça sait tout gérer mais il n’y a pas de raison pour que ça n’y parvienne pas.
Les soucis signalés par Green et ses amis sont résolvables si l’IA sait reconnaître ces situations.
Tu peux déjà trouver plein de vidéos qui contredisent tes premiers et 3ème points.
Qu’en sais-tu qu’il n’y a pas cette solution de mitigation qui sera jugée acceptable en fonction des conditions ?
Le bouledecristalisme n’est pas une preuve.
Car tout simplement l’IA n’égalera jamais le cerveau humain… lis donc l’interview de Luc Julia dans les articles précédents.
Quoi qu’il en soir l’autopilote de Tesla à 10 ans d’avance…leurre ou pas…
J’ai lu l’article de Julia, et je me fie plus aux réalisations concrétes de Musk qu’à son verre à moitié-vide.