Des chercheurs ont mené cinq expériences visant à tester la façon dont l’intelligence artificielle fonctionne pour reconnaître des objets. Leurs résultats ont montré qu’il était très facile de tromper les algorithmes de deep learning, mais aussi que ces derniers commettaient des erreurs très différentes de celles réalisées par les humains.
J’imagine que l’on spécialise certaines IA dans la “compréhension en 3D” de l’espace qui les entoure: sur la perception en 3 dimensions de la scène qui les entoure. Ainsi déjà elles ne confondraient pas - éventuellement - un paysage avec une image de paysage !! Les IA travailleraient par 2 . S’agissant de la circulation routière, la priorité de la 2° IA serait de situer les objets dans l’espace (et de se situer dans l’espace) pour repérer par exemple une grille en travers de la route !
@Ph.L.
Concernant la route, pas besoin de 2e IA pour reconnaître l’environnement 3D. C’est le rôle du LIDAR.
Et je pense que c’est le fonctionnement différent de l’IA qui permettra d’avoir des résultats différents. Bien qu’aujourd’hui elle se trompe, j’espère que demain c’est elle qui nous indiquera nos erreurs (par exemple sur des illusions optiques)
Tremblez… car ces algorithmes sont déjà dans les salles de marché et dans certains systèmes d’armement
Pas grave, déguisement en balle de golf… ni vu ni connu
On ne doit pas avoir plusieurs IA (sauf question de redondance mais c’est autre chose). Comme une esprit humain (et même encore plus puisque la capacité du système permet de traiter beaucoup plus de données, c’est ici la force de l’IA), un maximum de données doivent être utilisées pour avoir une bonne probabilité d’analyse correcte de la situation du véhicule.
Dans le cas traité par l’article, pour simplifier, on va juste parler de réseau de neurones sur de la reconnaissance d’images. Dans l’absolu, on doit entraîner notre IA avec des jeux de tests en lui indiquant: ceci est une théière et cela est une balle de golf. On ne “sait” pas à l’avance comment cette IA va caractériser l’une et l’autre. Si il y a des erreurs à la fin c’est soit le jeu de données initial incomplet ou biaisé, soit le traitement initial de l’image (principalement pour accélérer et faciliter le traitement: réduction de la résolution par exemple), soit le réseau de neurone mal calibré (pas assez de neurones, en général une dizaine suffit mais si on prévoit des cas foireux comme pour notre théière, il faut augmenter), soit le jeu de test insuffisant ou biaisé (cas le plus fréquent).
Bref, je trouve cette étude un peu légère dans son traitement et ses conclusions. Il n’y a pas d’analyse des raisons ou sources de la déviation.
Il faut aussi prendre en compte l’observation dynamique : sur une seule photo de théière avec une texture de balle de golfe, le trompe-l’oeil peut bien tromper aussi l’IA. Mais dans une configuration avec déplacement, l’évolution de l’angle et de la distance donnerait probablement un tout autre résultat. C’est quand même ça qui nous permet de faire la différence entre un paysage et une image de paysage ou entre deux personnes de taille différentes, mais à des distance différentes.
MERCI à l’auteur de ne pas être tombé dans les dérives marketeux de l’IA à toutes les sauces et et de bien parler de deep learning
intelligence: (source wiki)
1.Faculté de connaître, de comprendre ; qualité de l’esprit qui comprend et s’adapte facilement.
2.L’ensemble des fonctions mentales ayant pour objet la connaissance rationnelle (opposé à sensation et à intuition).