Un ingénieur logiciel a créé une intelligence artificielle dont l’objectif est d’aider les descendants des victimes de l’Holocauste à les identifier sur des photographies d’époque, et les retrouver dans le cas où elles seraient encore vivantes.
Elle est où « l’intelligence artificielle » dans un algorithme de reconnaissance faciale et de simulation de vieillesse ? Je vois pas trop là…
Il est possible que l’AI soit utilisée pour améliorer la quaité des photos, et donc gagner en précision pour l’algo de reconnaissance faciale, entre autre.
L’algo utilisé pour faire le lien entre un visage actuel et les visages sur les photos de l’Holocauste est un algo d’IA, c’est tout. C’est un processus qui n’a rien de naturel et qui peut être difficilement résolu par des méthodes classiques d’analyse statistique ou d’algorithmique simple, donc c’est bien de l’IA, avec un entrainement effectué sur un gros volume de données (photos).
Je pense que tu ne saisis pas la différence entre un algo et une IA.
La reconnaissance faciale ne fonctionne pas très bien avec des algos (programmation linéaire « classique »), par contre, l’IA est très efficace pour ça, et ça demande un réseau neuronal ridiculement léger pour des résultats étonnamment fiables.
C’est probablement le coté « Intelligence » qui te bloque, car oui, il n’y a pas d’intelligence dans cette reconnaissance, juste un apprentissage (base de l’intelligence quand même).
@artik1024
Justement non, c’est en général de l’algorithmie qui est utilisée pour traiter les images avant reconnaissance (c’est très efficace) et l’IA intervient sur la reconnaissance (là aussi, c’est le plus efficace).
Ben une IA est basé sur un algo
Montre a un enfant de 4 ans 3 photos de chats il reconnaitra tout les chat du monde, montre 400.000 photos a un ordi, et il confondra encore ( et non ce n’est pas de moi mais d’un des ‹ inventeurs › de l’ia, qui lui même confirme que le I dans IA n’a pas sa place )
Je serais plus à même de dire que l’IA est utilisé pour l’oversampling que pour la recofaciale effectivement artik1024
Pour moi, non, une IA est basée sur un apprentissage (environnement dynamique) et pas un algo figé. On peut bien sur dire que la techno utilisée, par exemple un réseau neuronal, est basé sur un algo, mais en soit cet algo ne sait absolument rien faire d’autre qu’apprendre. On pourrait presque dire que l’algo c’est le jeu de données d’apprentissage!
Et je suis peut-être très prétentieux mais je ne suis pas d’accord avec « l’inventeur » des IAs (c’est qui?). Peut-être aussi que les technologies ont évolué, un programme prolog d’il y a 40 ans faisait des choses sympas (d’ailleurs ce sont les 50 ans de prolog si je ne m’abuse, purée je me fais vieux!
), l’utilisation des tensors donne maintenant des résultats qui n’ont rien à voir. La théorie de l’apprentissage a aussi bien évolué, le pré-traitement des données également.
Si tu as déjà un peu utilisé des IA, tu saurais que la fiabilité des résultats est souvent supérieure à celle d’un humain dans beaucoup de cas, et pas que des enfants 4 ans! En fait, cela tient surtout au fait que l’entrainement / l’apprentissage est bien plus efficace avec des quantités de données qu’un humain ne pourra jamais appréhender, et aussi au delà de ce que l’informatique procédurale, par contraintes, événementielle, etc peut faire (pour l’informatique quantique, par contre, c’est à voir mais je n’y connais pas grand chose… ).
Alors oui, ce ne sont pas 3 photos qui suffiront mais pour l’enfant non plus, un chien ou même un éléphant a des chances d’être un chat pour un enfant aussi avec seulement 3 photos!
Le problème du deep learning ( oui je sais, mais je préfère largement ce terme a l’IA ) c’est que justement, vu qu’il n’y a pas d’intelligence, ben il se trompe.
Comme une tesla qui s’arrête parce qu’un mec a un panneau STOP imprimé sur son teeshirt et qui marche sur le trottoir. Aucun humain ne ferait l’erreur ( après réflexion bien sûr ), la machine si, car justement il lui manque l’intelligence.
J’avais vu un autre test, d’une photo d’un chat lancé en l’air, donc le fond était le ciel, tout bleu, ben aucun IA n’a compris que c’était un chat…
C’est pour ca que quand je vois les articles parler d’IA ca me fait toujours sourir ( pour le moment, on ne connait pas l’avenir ) mais ce terme très putaclick m’énerve…
Oui moi aussi ca me gonfle de pas retrouvé cet article qui était super interessant ! ( je continue de chercher )
Le deep learning n’est qu’une des facettes de l’IA. Mais oui, c’est ce dont je parlais.
La définition de l’IA, c’est l’imitation artificielle de l’intelligence humaine, mais pas l’intelligence elle-même, même si c’est trompeur.
Et pour reprendre ton exemple Tesla, qui te dit que ce n’est pas une illusion d’optique, ou que le type remplace un panneau stop ? Oui c’est ton intelligence (en fait plutôt tes réflexes de tri d’information) qui rejette des infos classifiées comme inutiles ou incohérentes. Mais à bien réfléchir mes propositions loufoques auraient quand même du être étudiées, ce que ne fera pas un humain mais ce que fait une IA, même si le « résultat » te semble idiot, elle adopte une solution logique. Le problème est plutôt quand des choses sont confondues (le ciel et un camion blanc)!
Dans ton exemple du chat, c’est juste un défaut d’entrainement à mon avis. Si on a fourni que des images de chat pris de face, effectivement l’IA ne reconnaitra pas un chat en train de tomber ou de « voler ». Il faut bien avoir en tête qu’une IA se base sur une « connaissance » pour proposer un résultat. Et il ne faut pas croire qu’un humain fait mieux quand se sont ses réflexes qui sont en jeu comme pour la conduite.
Comment une pseudo IA peut reconnaitre des visages de l’holocauste alors que la grande majorité des victimes n’avaient pas de photos d’eux à cette époque, les appareils photos étant très chers et les smartphones n’existant pas ?
Imitation Artificielle, ah ca j’aime bien je trouve ca plus malin !
Pour le stop, justement non, une IA vois un panneau stop, elle confirme un stop, un humain voit qu’il n’est pas sur la route, qu’il n’est pas physique, qu’il n’est pas pour TA route… bref le contexte n’est pas bon, donc ce n’est pas un STOP a prendre en compte
Pour le chat on en revient au même, si il faut une infinitée de cas a étudier ( car il y a une infinité de cas possible ) alors il n’y a AUCUNE notion d’intelligence car pas d’adaptabilité de ce que l’IA vois et avoir l’intelligence de le retranscrire dans un contexte hors norme.
Pour faire simple je vais citer un bout de phrase qui conclue exactement ce que j’essaye de dire :
« nos smartphones [ comprendre IA ] savent déjà retranscrire une instruction mais ne parviennent pas la contextualiser pleinement et à analyser nos intentions. »
Et justement, « l’intelligence » c’est ca : le contexte et l’analyse ( pas seulement la reconnaissance et le souvenir )
- Pas grand chose a voir, mais après notre échange j’ai trouvé un test de turing proposé par mozilla ( bon ca ne doit clairement pas être la meilleur j’avoue ), je l’ai poutré en 1 seule phrase :
« Hi ! I am from Mars and you ? » et la machine sans aucun soucis m’a demandé quel temps il faisait et si je m’entendais bien avec le voisinage
→ oui c’est possible, mais dans le contexte actuelle, il est impossible que je vive sur Mars, un humain aurait percuté direct.
Elle ne reconnait pas dans le sens du terme, elle compare les photos disponible…
Tu raisonnes trop en « use case ».
Les IA ont justement une capacité à gérer des cas en dehors des cas « prévus » que n’aura effectivement jamais un algo, et ça s’apparente à ce que tu appelles l’adaptabilité. Le fait que le panneau ne soit pas sur la route mais sur un panneau publicitaire ne sera pas « expliqué » à l’IA, il y aura juste quelques connexions qui auront été faites à l’entrainement sur ce qui « est » un panneau, donc pas un tee shirt ni une pub. On pourrait dire que ça ne bouge pas et c’est proche de la route, mais ce n’est absolument pas ça qui sera « gravé » dans l’IA (en fait on ne sait pas ce qui va déclencher l’acceptation du panneau, c’est d’ailleurs ça qui est un challenge dans l’entrainement des IAs, et pour ça qu’il faut des spécialistes).
Pour ton exemple de Mars, on est sur quelque chose de beaucoup plus large et complexe, puisque l’on est plus sur une tâche basique, ça demande une culture générale, une contextualisation, ce qui n’est possible qu’après plusieurs années d’apprentissage chez l’homme, alors pour une IA, on y est pas encore.
Ah, et la réponse de l’IA n’est pas si débile que ça :