Elon Musk a du être chien dans une vie antérieure, c’est pour ça que pour lui, une année correspond à 7 années humaines. ![]()
Le 1+1 n’a pas de sens dans ta comparaison. Une IA LLM ne « sait pas » mais elle s’est « aperçu » que souvent ses données d’entrainements avaient des « 1 + 1 » qui étaient suivis par « 2 ».
Par contre une IA orienté mathématiques va « deviner » (parce que c’est au final plus ça) qu’il y a 4 types d’opérateurs binaires avec des résultats qu’elle va « inventer ». Si on lui met à disposition une calculette, il y a même des chances pour qu’elle devienne particulièrement efficace rapidement, mais qu’elle fasse aussi quelques erreurs, comme si c’était des résultats « à la louche ». C’est un peu plus compliqué que ça mais ce sont les grandes lignes.
Comme le dit @philouze, une IA est justement une imitation de raisonnement humain: une somme d’expériences (l’apprentissage) qui génère un réflexe (la sortie) plus ou moins fiable.
Les IAs sont pour le moment de très jeunes enfants sans connaissances globales et des biais importants. Bon, c’est sûr que les biais, comme pour les humains, risquent d’être amplifiés par la vitesse de circulation des informations, mais c’est un autre sujet…
Quand on pourra connecter au monde réel une IA suffisamment puissante (et on en est pas loin, la puissance de calcul très supérieure au cerveau humain compense en partie les profondeurs de réseau neuronaux plus faible par exemple), avec suffisamment de temps, elle sera aussi intelligente qu’un humain. Après, Musk aime bien donner des dates de la même façon qu’un LLM « par ça sonne bien »! ![]()
« le but même d’une IA c’est, précisément, l’imitation d’un raisonnement humain, c’est d’être « antropomorphe » dans son interaction. »
Non, non, vraiment pas. Une IA est conçue pour faire croire a un humain quelle a eu un raisonnement proche de lui, mais elle ne fonctionne pas du tout comme cela, c’est la votre erreur.
Par exemple, les réseaux de neurones artificiels, qui sont couramment utilisés dans de nombreuses applications d’IA, fonctionnent en traitant de grandes quantités de données pour identifier des modèles, ce qui est très différent de la façon dont fonctionne le cerveau humain.
Je me suis mal exprimé, mais comme j’avais débuté mon post, je parle bien de calcule par le processeur, c’était ça la comparaison de Philouze. Mais je n’ai pas été claire sur la suite.
Pour la suite, vous ne faites que répeter les idées de Philouze. Voici ce qu’une IA en pense :
" 1. Conscience et compréhension : Lorsque vous dites qu’une IA « s’est aperçu » de certaines relations dans ses données d’entraînement, cela implique une conscience ou une compréhension qui ne correspond pas à la réalité des IA actuelles. Les IA n’ont pas de conscience ni de compréhension des concepts comme le font les humains.
2. « Deviner » et « inventer » : Ces termes suggèrent une capacité créative et un processus de réflexion similaires à ceux des humains, ce qui ne correspond pas à la façon dont les IA fonctionnent. Les IA ne « devinent » pas ou n’« inventent » pas au sens humain, mais plutôt appliquent des algorithmes basés sur des modèles et des données.
3. Imitation du raisonnement humain : Bien que les IA puissent être conçues pour interagir avec les humains de manière intuitive, cela ne signifie pas qu’elles imitent véritablement le raisonnement humain. Leur fonctionnement est basé sur des algorithmes et des calculs qui peuvent produire des résultats utiles pour les humains, mais qui diffèrent fondamentalement du raisonnement humain.
4. Limites actuelles des IA : Les IA actuelles sont encore loin d’avoir la capacité d’une intelligence humaine générale. Elles sont limitées par leur manque de conscience, de compréhension et de capacité à raisonner de manière abstraite."
L’IA semble plutôt d’accord avec moi, l’IA vous fait croire quelle raisonne, mais son fonctionnement est très systématique et loin de ce que vous imaginez.
L’IA a propos de votre conclusion :
« En résumé, bien que les progrès en intelligence artificielle soient impressionnants, il est important de rester réaliste quant aux limites actuelles et futures de cette technologie. Les IA peuvent être très utiles dans de nombreux domaines, mais il est peu probable qu’elles deviennent des répliques exactes de l’intelligence humaine dans un avenir proche. »
Solution de facilité, j’avoue, mais c’est amusant avec le contexte. D’autant que je partage l’avis de l’IA (chatgpt) qui me semble plus réaliste. J’ai même l’impression qu’elle m’a fait un clin d’œil après avoir répondu ![]()
En effet, tu me fera 100 lignes « on ne met pas de e à calcul »
vous ne faites que répeter les idées de Philouze.
Oui, on a surement une idée assez proche de comment fonctionne un IA et de ce qu’elle peut faire. Peut-être que @philouze travaille aussi dans un domaine ou il utilise l’IA.
une IA « s’est aperçu »
Les guillemets ont un sens ici, c’est une approximation, un raccourcis. C’est une corrélation détectée, mais j’essaye de ne pas trop utiliser le jargon pour me faire comprendre. Sur un forum, on ne connait pas les connaissances des gens avec les quels on discute. Effectivement il n’y a pas de conscience ou de compréhension. Mais encore une fois on parle plus d’automate apprenant que de véritable IA comme elles pourrait être.
Ces termes suggèrent une capacité créative et un processus de réflexion similaires à ceux des humains
Effectivement, ce n’est pas comparable aux capacités humaine, ici les IAs sont bien supérieures. En fait, attendu qu’elles sont entrainées dans un but précis, la créativité dans une domaine particulier, elles sont bien meilleures que nous pour cette tâche, elles n’ont pas les limitations (connaissances limitées, capacité à traiter des quantité des données, compréhension des grands / petits nombres) et les barrières (conventions, habitudes, pressions diverses, …) de l’esprit humain. En recherche, les IAs sont des outils particulièrement efficaces et productifs.
Leur fonctionnement est basé sur des algorithmes et des calculs
Je ne suis pas d’accord du tout. Éventuellement on peut parler de statistiques mais c’est réducteur. On ne parle pas d’IA si les résultats sont basés sur des algorithmes et/ou de la gestion de base de données. C’est au plus un système expert mais on ne peut obtenir autre chose que ce que fait la programmation initiale.En cela s’approche du fonctionnement d’un cerveau: on ne sait pas ce qui va « sortir » de la boite noire (IA ou cerveau) par rapport aux informations données.
Les IA actuelles sont encore loin d’avoir la capacité d’une intelligence humaine générale. Elles sont limitées par leur manque de conscience, de compréhension et de capacité à raisonner de manière abstraite.
Totalement d’accord ici. Mais ce n’est absolument pas ce qu’on leur demande. On recherche juste des beaux parleurs (LLM), à résoudre des problèmes trop complexes pour les humains (trop de données en entrée) ou en informatique classique (explosion combinatoire de certains problèmes par exemple), ou encore de sortir des idées neuves (recherche…).
L’IA a propos de votre conclusion
[…]
Elles sont limitées par leur manque de conscience, de compréhension et de capacité à raisonner de manière abstraite.
C’est assez vrai. Mais vous avez ici l’« opinion » que d’une machine perroquet qui aligne des mots de manière efficace pour convaincre, mais sans réelle analyse ni compréhension du problème! ![]()
Pour moi, ce n’est qu’un question de temps pour que les IAs se dé-spécialisent, s’auto-entrainent (on utilise déjà des dialogues entre IA et les résultats sont ébouriffants), augmentent leurs capacités (étendue et profondeur des réseaux de neurones) et deviennent alors proches des esprits humains.
Cependant, j’admets que ma vision est très scientifique, et je reste fermé aux approchent plus philosophiques et surtout théologiques de l’intelligence humaine! ![]()
Déjà merci pour la discussion, j’aime bien le sujet et j’aime bien confronter mes connaissances et ma compréhension sur le sujet. Je n’en suis pas expert, et quand bien même, le nombre de médecins qui ont dit des bêtises sur le covid… Bref.
Je pense qu’on ne sera pas d’accord sur ce détails, qui n’est peut-être qu’une interprétation, mais quand vous dites « la créativité dans un domaine particulier, elles sont bien meilleures que nous pour cette tâche » ça me fait tiquer.
Bon je vais tourner en rond, mais je ne vois pas de créativité chez une IA. Elle peut au mieux sortir le meilleur des résultats au millieu de million de possibilités très rapidement grâce à son entrainement, mais la réponse est écrite en dur quelque part, c’est le fait de lui poser la question qui va faire ressortir ces données figées quelque part dans son réseau de neurone. « on ne sait pas ce qui va « sortir » » car c’est trop volumineux, mais rien n’empercherait de suivre tout le cheminement neurone par neurone et de prédire la réponse de l’IA. Ce n’est pas mystérieux ou subjectif, c’est juste super, super, super complexe.
Pour qu’elle puisse donner une réponse nouvelle, il faudra la ré-entrainer en lu donnant de nouvelle données qu’il faudra qu’un homme lui choisisse lui-même, elle n’aura aucune créativité pour sortir de nouvelle réponses.
Pouvoir trouver une réponse à une question trop complexe pour l’être humain ne fait pas l’intelligence, sinon une calculatrice est plus intelligente que nous pour le calcule, et ce n’est pas le cas, c’est juste une bête machine avec des « leviers et des roues dentées virtuelles ».
Alors avec plusieurs IA qui se corrigent qui se valident, qui s’échangent des données entre elle, on aura des système qui résoudront des problèmes avec des complexités inatteignables par l’humain, mais de la à les voir intelligentes, je ne suis pas convaincu. Je pense que le mot « intelligence » artificiel est mal choisi, il induit en erreur.
Mais bon je pense que je tourne en rond.
Bon week-end!
Non je ne pense pas que l’on tourne en rond. Je comprends petit à petit votre raisonnement. bien sûr cela ne me fait pas changer d’avis mais je pense que mes arguments sont plus afutés.
Avant saturation
, voici mes derniers arguments:
la réponse est écrite en dur quelque part
Je vais rester sur les réseaux de neurone parce que je connais un peu mieux que les autres techniques d’IA.
Si on parle de la configuration / des poids du réseau, oui c’est figé tant qu’un nouvel entrainement n’aura eu lieu ou qu’une nouvelle question n’aura pas été posée (ce qui peut faire partie de l’entrainement). Mais cela ne me semble pas à un argument pour différencier l’humain de la machine.
Pour moi, la principale différence est l’aléa du cerveau humain (la complexité, le fonctionnement analogique et chimique, les sens introduisent un chaos dans le traitement), mais c’est aussi simulable (mais probablement pas souhaitable ou utile…).
Pour qu’elle puisse donner une réponse nouvelle, il faudra la ré-entrainer en lu donnant de nouvelle données
Tout à fait.
u’il faudra qu’un homme lui choisisse lui-même
Pas forcément. Vous pouvez fournir une calculatrice à une IA, ou en faire « converser » plusieurs (comme dit plus haut les résultats sont exceptionnels)…
elle n’aura aucune créativité pour sortir de nouvelle réponses.
Effectivement que le prompt est la graine d’intelligence de base. Mais les résultats sont « créatifs » car souvent totalement inattendus, inaccessible à l’esprit humain et même à l’informatique classique, souvent très intéressants même si il y a pas mal de déchets et que cela demande une validation par l’informatique classique. Pour moi c’est créatif, mais peut-être qu’il faudrait s’entendre ici sur la définition du terme « créativité »!
mais de la à les voir intelligentes
Là aussi, je pense que l’on surtout sur un problème sémantique! ![]()
Bon week end à vous aussi!
Bon je vais tourner en rond, mais je ne vois pas de créativité chez une IA. Elle peut au mieux sortir le meilleur des résultats au millieu de million de possibilités très rapidement grâce à son entrainement, mais la réponse est écrite en dur quelque part, c’est le fait de lui poser la question qui va faire ressortir ces données figées quelque part dans son réseau de neurone. « on ne sait pas ce qui va « sortir » » car c’est trop volumineux, mais rien n’empercherait de suivre tout le cheminement neurone par neurone et de prédire la réponse de l’IA. Ce n’est pas mystérieux ou subjectif, c’est juste super, super, super complexe.
Deux problèmes de fond dans l’échange :
- ce n’est pas parce que le système est différent dans sa structure et son mode de fonctionnement, que le résultat diffère. Et en matière « d’anthropomorphisme » , c’est le résultat qui compte, pas la méthode
« l’IA ( actuelle ) n’a pas de créativité »
-
oui, si tu restreins la définition de créativité.
D’un point de vue combinatoire / esthétique dite « collagiste », l’IA actuelle, pourtant très limitée, est même extrêmement créative. -
non si tu imposes que l’IA ait une volonté propre, qu’elle « choisisse » seule des prompts, ex-nihilo. Or cette fonction n’est pas (encore) à l’ordre du jour parce que l’intérêt même du projet est douteux
-
non aussi si tu inclues que créativité impose apprentissage automatique, hors les IA actuelles sont massivement dyssimétrique : apprentissage intensif puis inférence exclusive. Mais c’est uniquement parce que ce réglage est le plus économique matériellement et énergétiquement.
Pas sûr qu’à l’avenir ce soit la règle -
Enfin il reste un dernier problème de fond, face à une IA « auto-apprenante » doué d’un système d’objectifs/regret, comme pourrait le devenir JEPA, nous penses-tu si « créatifs » ?
Quand est-ce que ta création est pure et ex-nihilo, quand est-ce qu’elle ne serait pas un choix pondéré par rapport à des mesures de conséquences d’expériences déjà vécues ?
Quand est-ce qu’en cas de situations totalement vierges, tu ne ferais pas appel à des « souvenirs de situations éloignées » ou à de simples "essais random / validations / invalidations / corrections " soit exactement ce que fais un deep learning ?
nous nous pensons plus que ce que nous sommes, parce que notre cerveau n’est pas conçu pour comprendre comment il fonctionne. Nous n’en voyons que la sortie