Oubliez l’IA générative, ce n’est pas moi qui le dis, mais Yann LeCun, le gourou tricolore de l’intelligence artificielle. Sur le long chemin vers l’IA générale, le scientifique en chef et vice-président de Meta mise sur un modèle basé sur l’objectif, capable d’apprendre, de raisonner et de planifier en toute sécurité. Tout un programme.
« Lorsque Yann LeCun, Vice President et Chief AI Scientist de Meta prend la parole… »
Déjà là j’ai un gros doute… Zack veut réfléchir à notre place…
J’AI UN PRIX TURING.
Quand je serais grand, je serais trop fort et je ferais une IA mieux que celles que j’ai pas vu venir.
J’AI UN PRIX TURING.
Elle serait révolutionnaire, car elle serait plus intelligente et qu’elle apprendrait mieux.
J’AI UN PRIX TURING.
Du coup je fais un projet Git vide que j’appelle JEPA en hommage au prix que je JEPA eus tout seul, aux IA génératives que JEPA a vu venir et que JEPA réussi à faire copier par mon équipe que JEPA.
J’AI UN PRIX TURING.
Tout le monde a le droit de le remplir c’est génial, mais c’est méta qui prends les droits et la thune faut pas déconner quand même, je me contenterais de la gloire.
J’AI UN PRIX TURING.
Je vais mètre des suppositoires sur mon diagramme. Ils ne pourront pas dire que je ne les avais pas subtilement prévenus.
J’AI UN PRIX TURING.
C’est vrai que c’est un peu le discours du mec qui a raté le coche commercial mais qui reste néanmoins passionné par son domaine, comme tous les chercheurs. De manière générale je déteste quand même les gens qui disent que ce que fait le voisin c’est de la m*rde. Et généralement ce genre de recherches ça sort un truc intéressant au bout de 20 ans, et encore. Pendant ce temps OpenAI s’en met plein les poches et Meta… comment dire… faut bien rebondir après la déculottée du metavers et rassurer un peu les actionnaires.
les chats ayant planifié la domination du monde dans 100 ans il serait plus utile d’apprendre à miauler aux ia.
C’est mieux qu’un prix Tuning.
De toute façon j’ai du mal à voir comment une vrai IA peut emmerger juste en donnant des données.
Les enfants apprennent parce que quelqu’un leur apprends et leur explique le pourquoi du comment.
Exemple tout bête en photo. Je peux transmettre à l’IA mes photos avant et après.
Aucune IA n’est en mesure de comprendre pourquoi je corrige de telle manière une photo avec tel outil.
Et pour ça, faut des gens qui enseignent. C’est pas des données qui feront le travail. Les données c’est juste les exemples.
pour ma part je pense qu’ils sont vraiment pas loin de la conduite autonome niveau 5
c’est largement envisageable au faisant conduire une voiture par un humain, voiture équipée de tous les équipements de détection présents dans le modèle final
les données de la conduite humaine étant associées à toutes les informations recueillies par les capteurs permettent de constituer un base de données permettant d’entrainer une IA tel que ça se passe dans les autres domaines
avec des dizaines de véhicules d’entrainement parcourant des 100e de milliers de kilomètres, il est largement envisageable de constituer une base de données suffisamment importante et large pour pouvoir former un cerveau numérique en capacité de réagir à n’importe quel environnement et à n’importe quelle situation
De toute façon j’ai du mal à voir comment une vrai IA peut emmerger juste en donnant des données.
le cerveau numérique (l’IA) est soumis aux stimuli (la base de données), et si il est bien construit, ces stimuli permettront de façonner les connexions nécessaires à son fonctionnement une fois en condition de devoir résoudre un problème
vois un peu le deep learning comme une stimulation par choc électrique d’un cerveau vierge, ces chocs électrique simulant les interactions que peut avoir un cerveau avec son environnement, si il est bien construit, ça lui permet de créer des connexion neuronales qui engendre expérience, mémoire…
on est au tout début de l’aventure, on va pas pouvoir concurrencer tout de suite la nature qui a des millions d’années d’avance, mais ça viendra
ce qui nous manque principalement, ce sont les architectures neuronales permettant d’imiter le fonctionnement des systèmes nerveux de la nature, cette limitation est à la fois au niveau des concepts (comment organiser tout ça), et à la fois dans nos limites technologiques, la nature est beaucoup plus performantes pour créer des microstructures hyper complexes, mais avec un peu de temps, on y arrivera, y a pas de raison
je te cite : « le cerveau numérique est soumis aux stimuli (…) résoudre un problème ».
Je suppose que tu en connais suffisamment pour savoir que l’IA ne fait rien d’autre que de déduire « la suite » à partir des « stimuli » dont tu parles : si j’ai X alors la probabilité d’avoir Y est la plus forte.
La machine ne sait même pas ce qu’elle fait. Elle ne sait pas qu’elle est en train de jouer aux échecs, répondre à une question de math d’un collégien, ou de peindre un monet. La machine ne fait que déduire : si C4 fou alors D6 tour, si pythagore alors c2=a2+b2, si point rouge+bleu+vert alors prochain point=gris.
Avant un informaticien entrait ces règles si-alors à la main.
Maintenant on fait bouffer des milliards de données à la machine pour qu’elle fasse des stats sur « quelle est la réponse statistiquement la plus probable compte tenu des stimuli en entrée ». Et on prend ça pour de la magie ou pire : de l’intelligence.
Quand tu tournes un robinet et que de l’eau en coule, tu ne considères pas le robinet comme une intelligence n’est-ce pas ?
En bien quand tu entres des stimulis dans ton réseau neuronal et que ça te sort un machin, pourquoi tu considères ça comme de l’intelligence ?
tu confonds intelligence et conscience selon moi
Gouroux, Français et « nouvelles technologies » dans la même phrase, ça me ferait presque penser à une blague…
Même si je sais pertinemment qu’il y’a quelques « petits » génies français.
@a-snowboard Tu as tout à fait raison et il faut absolument empêcher la disparition des sachants par de pseudo IA ce que favorisent nos politiques et les investisseurs. De tout cela n’émerge aucune intelligence mais une floppée de cons qui prennent leurs informations auprès de cupides délétères. Et malheureusement pour nous les cons sont très haut placés car c’est le système qui génère de la richesse (en dollars) qui est fait pour ça et ça, ça marche très bien.
toi, tu ne confondrais-tu pas mécanisme et intelligence ?
moi je sais pas, eux le font par contre
En 2006, H. van der Maas et ses collègues d’Amsterdam proposent un modèle dynamique dit de mutualisme qui propose que l’intelligence pourrait dépendre de plusieurs mécanismes indépendants, dont aucun n’influerait sur la performance au test. Ces mécanismes se soutiennent entre eux, de telle sorte que le fonctionnement efficace de l’un d’eux rende plus efficace le fonctionnement des autres ce qui créerait le positive manifold 30.