Non, ce ne sont pas des bases de données. Ce sont des modèles probabilistes, tout comme… le cerveau humain, qui est essentiellement une énorme machine à calculer des probabilités.
Commentaires : Grok, l'IA d'Elon Musk, aurait quelques soucis pour délivrer des informations avérées
Non, encore une fois, tu ne comprends pas, ou tu fais mine de ne pas comprendre.
Je ne fais ni comparaison, ni analogie, ni rapprochement, ni tout ce que tu veux… j’ai simplement paraphrasé en remplaçant IA par cerveau pour montrer que la proposition est un truisme, puisqu’elle s’applique à tout ce qui est un peu compliqué (c’est un ensemble complexe de choses simples).
J’ai remplacé par cerveau pour rester un minimum dans le contexte, mais j’aurais très bien pu paraphraser par « une fusée aussi n’est qu’un ensemble extrêmement complexe de bêtes pièces » ou « un programme aussi n’est qu’un ensemble extrêmement complexe de bêtes instructions »…
Donc, non, définitivement, je n’ai rien comparé.
Comment prendre au sérieux un clown ???
(oui, je sais, y a un « c » en plus, pas taper svp)
C’est très réducteur, le cerveau humain ne sera pas modélisé aussi facilement. Les modèles de probabilité sont simplement ce qu’on a de mieux pour s’en approcher.
La difficulté tient essentiellement à la taille du cerveau humain (plusieurs billions - français les billions, pas anglais ! - de synapses par cm^3…). Mais fondamentalement, les « neurones logiciels » sont déjà d’excellents modèles des neurones réels.
Pas surprenant si c’est entraîné sur les Tweet😅
On ne se comprends pas, c’est certain. (et si je fais mine de pas comprendre, c’est inconsciemment, ce qui est toujours possible)
Moi ce que je dis, c’est que mentionner le cerveau dans des discutions sur l’IA prête a croire qu’il y aurait de fortes similarités entre leurs fonctionnements alors qu’il n’en est rien. (Et on en arrive aux modèles utilisés qui me paraissent bien simpliste face a un cerveau rempli de neurones(qui n’ont que peu en commun avec les « neurones » d’une IA).)
Mais surtout plus rare.
tu n’es pas très philo, mais justement, c’est un problème
comme le dit Matt, l’intérêt de cette vidéo, c’est de te rappeler que contrairement à ce qu’on pense, la « méthode » par laquelle on arrive au résultat a peu d’intérêt, tu es toi aussi une machine qui enfile les mots les uns derrière les autres de manière probabiliste.
dire un truc « intelligent » ou « pertinent » c’est choisir la meilleure formule en fonction des circonstances. Que tu ais effectué une sorte de modélisation mentale avec une intention a finalement peu d’intérêt.
« la machine ne fait pas de maths » , mais bizarrement, si tu lui dis « si je pose mon smartphone sur la la table et que j’avance la table de 10cm, de combien à bougé mon smartphone par rapport à moi » - et qu’elle te réponds correctement,
tu as un problème si tu me réponds que cette machine est juste une calculatrice.
mais une calculatrice qui comprendrait la question, et ne ferait pas « des maths comme toi » ? ça devient tricky non ?
C’est tout le propos de M. Phi et du paradoxe de la boite chinoise.
ta « méthode humaine d’intelligence » n’est pas décrire l’intelligence ontologique, c’est juste décrire TA méthode.
Si une autre méthode parvient au mêmes résultats avec un bon, voir meilleur niveau de performance et de pertinence, tu as bien UNE intelligence, elle est juste différente.
De retour de vacance!
« tu as un problème si tu me réponds que cette machine est juste une calculatrice. »
Et non, l’IA n’a pas conscience (elle n’est pas programmée comme ca) que le smartphone et la table bougent ensemble grâce a sa compréhension de la gravité etc. Elle va voir si statistiquement, les mots qui sont dans les même catégorie que « table » qui sont associés au mot « mouvement » donnent comme résultat « la pomme est rouge » ou plutôt « le smartphone bouge avec la table ». Il n’y a pas de réflexion derrière pour savoir ce qu’est un mouvement et quelles sont les lois qui le régissent, juste des statistiques avec des caractères alpha numérique qui ne signifient rien de plus que des caractère alpha numérique.
Je ne sais plus ça fait longtemps, mais M.Phi ne considère pas une calculette exactement comme une IA? Il fait une différence entre les 2?
Une boite en bois vide, ou avec des engrenage (en bois), qu’ils soient assemblés d’une façon ou d’une autre, reste un tas de bois sans intervention d’une réel intelligence. C’est pas pareil pour l’IA? Un outils…
hmmm, tu aurais justement du re-garder ses vidéos sur le sujet avant de me répondre.
Comme expliqué plus haut, ce que tu appelles « conscience » de la situation est finalement inutile dans le débat.
Comme redit à nouveau : que tu aies besoin de modéliser la situation (c’est ça que tu appelles prendre conscience de la situation) pour mieux l’appréhender est simplement une explication de TA façon dont fonctionne TON intelligence.
D’ailleurs ton intelligence ne fonctionne pas comme ça H24, régulièrement tu passes en mode automatique pour tout ce que tu connais ou pratique régulièrement.
Pour simplifier à outrance l’histoire de la boite chinoise en essayant de ne pas la trahir : une IA n’est pas une calculatrice tout comme deux neurones isolés ne sont pas une intelligence,
La différence est dans l’agencement et la quantité - mais leur méthodes pour parvenir au résultat importe peu.
A partir du moment ou tu commences à ne plus trouver de tests « courants » pour départager les deux formes d’intelligence, il y a intelligence, l’une repose sur des modélisations et des intentions, l’autre sur une accumulation de connaissance et des approximations (les transformers), donc des patterns qui « marchent » .
L’erreur de pas mal de « penseurs » y compris des chercheurs dans l’IA, c’est de penser qu’il n’y a qu’une forme d’intelligence valable : la notre, et que même un LLM parfait qui rendrait tous les services de l’intelligence n’en serait pas une.
C’est une erreur, ce serait juste une intelligence différente, éventuellement dispensée de conscience.
Merci pour ta réponse après tout ce temps mort.
Mais alors comment on fait en pratique?
« A partir du moment ou tu commences à ne plus trouver de tests « courants » pour départager les deux formes d’intelligence »
Je trouve cela contradictoire, il est tellement facile de mettre un LLM en difficulté (de part sa conception et son fonctionnement même (demandez-lui un palindrome)), des questions comme ça il en existe à la pelle.
Du coup je trouve que ça va dans mon sens, l’IA porte mal son nom…?
Ou alors il faut catégoriser?
-
Cette boite chinoise contient un dispositif intelligent qui fait des calcules
-
On test ça fonctionne
→ Oui, peut importe le contenu, cette boite est intelligente car elle fait bien ce qu’on lui a demandé. C’est une intelligence de calcule. -
Cette boite parle comme un humain
-
On test elle sait pas faire de palindrome
→ résultat mitigé, peut importe ce qu’il y a dedans ce n’est pas une intelligence qui parle comme un humain. -
Cette boite génère du texte lisible qui se rapporte à l’entrée donnée.
-
On lui demande un palindrome, elle se loupe mais génère du texte lisible qu’elle a trouve le plus probable.
→ On a une intelligence qui génère du texte.
Donc on a une intelligence, qui n’a pas le moindre rapport avec l’intelligence au sens humain,mais elle l’est assez pour ce pour quoi elle a été conçue, donc oui elle est intelligente, pour ce qu’elle doit faire.
Mais alors attention de ne pas lui attribuer de facultés quelle n’a pas, comme la spatialisation d’un objet sur une table.
J’en ai discuter avec un ami et on a pas su déterminé à partir de quel stade de l’évolution on pouvait parler d’intelligence pour la vie… On s’est arrêté a « sans déplacement il n’y a que du hasard donc pas d’intelligence » juste la logique : « Cosmos » et on a pas su aller beaucoup plus loin…
Et quand tu dis « ce que tu appelles « conscience » de la situation est finalement inutile dans le débat. » c’est problématique car on essaye justement de comparer l’IA génératrice de texte a une intelligence qui n’a qu’une seul et unique fonction : Réagir a la conscience qu’elle à du monde. Nous ne somme que ça, « une machine » qui réagit a son contexte, et l’IA est presque l’inverse, un machine qui ne voit qu’une seul et unique entrée ignorant même en quoi consiste cette entrée.
NB (on retourne dans la boite, donc ceci est à part) : Je suis tombé hier sur une interview qui est très intéressante (la premier partie en tous cas, je l’ai pas finie) ou un expert explique les limites des LLM, en quoi ils ne « réfléchissent » pas mais « crache du texte » et qui va plutôt dans le sens de ce que j’essayais d’exprimer plus haut. ->C’est Yann Le Cun interviewé sur la chaine d’un certain Matthieu Stefani sur YouTube.
PS : Je suis conscient de mes lacunes en philo et je comprendrais que tu choisisses de passer à autre chose plutôt que de discuter avec quelqun qui n’a pas le b a ba. Je ne prendrais pas cela comme un aveu de faiblesse, tu as le droit d’avoir mieux a faire
du fair play sur un forum!!!