L’intelligence artificielle ChatGPT est devenue folle ce 20 février 2024. OpenAI, son créateur, s’explique après un retour à la normale.
Normal qu’il y ait des incidents, l’IA n’est qu’un bébé de quelques années. Quand il sera ado, là, on en reparlera…
ChatGPT en burnout… y a plus qu’à créér PsyGPT pour régler le problème ^^ .
Ça ira mieux quand l’IA se mettra à jour toutes seule
Comme ça, Plus d’humain qui crée des bugs
Et elle prendra le pouvoir pour tous nous exterminer
cette mésaventure nous rappelle que l’IA n’est pas encore infaillible
Correction :
Cette mésaventure nous rappelle que l’IA n’est pas encore.
Un enfant fait de gentilles bêtises. Un ado, ça peut commencer à être vraiment trash…
« Gary Marcus, spécialiste de l’IA, voit dans cet incident un « signal d’alarme ». « Ces systèmes n’ont jamais été stables. Personne n’a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes », poursuit-il. Il souligne la nécessité de « technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer, et donc plus faciles à mettre en œuvre ». »
Heu, ce « spécialiste » sait comment fonctionne une IA ?
Par principe, on ne sait pas comment les résultats sortent, il est quasiment impossible d’analyser le cheminement de la « pensée » de l’IA, et c’est aussi en cela que c’est proche d’un raisonnement humain: pas d’automatisme, de garantie de fiabilité ni de stabilité des résultats…
Et cela sera de moins en moins possible avec l’accroissement de la complexité des modèles. Tout au plus il sera possible d’améliorer les entrainements et de mettre des gardes fous.
Mon expérience de parent rend votre commentaire assez peu rassurant.
Gary prone pour plus de retenue dans les release au grand publique, et de plus de manipulations de symboles explicites dans les IA. Sa position n’est pas si déraisonnable si tu admets que l’IA prèsente des risques de dérive importants, il demande juste un peu de prudence au lieu de viser la croissance économique maximale, prudence qui est inexistente pour le moment.
Et non, les réseaux neuronaux ne sont pas nécessairement difficile à lire et expliquer, ici c’est la méthode d’apprentissage et l’algo d’optimisation qui mathématiquement rendent le réseau de neurone bordélique. Se peut que de futurs architectures soient plus proches du cerveau humain, donc plus faciles à lire.
Cela dépend les connaissances que l’on donne à IA.
Là, j’ai vu que ChatGPT a ses limites en termes de connaissances scientifiques…Il peut pas émettre de nouvelles théories ou alors je l’utilise mal.
Et c’est censuré pour l’instant.
Je ne conteste absolument pas cette partie, je suis d’accord la dessus. C’est un outils que l’on ne maitrise pas très puissant, donc d’autant plus dangereux.
C’est pourtant ce que l’on recherche la plupart du temps, une intrication forte… Bon, je ne connais que la partie recherche, c’est peut-être très différents dans d’autres domaines. Tu connais des usages particuliers?
Permet moi de douter… Il y a les mêmes problèmes dans le cerveau humain: comment comprendre toutes les interconnexions générés par un apprentissage, surtout que chaque test est intrusif puisque l’apprentissage continue, ou alors c’est destructif avec une dissection (pas cool! )!
ChaptGPT n’est absolument pas une IA de recherche, mais un « générateur de blabla ». En fait il sait aligner des mots qui ressemble a quelque chose de cohérent. Ca serait un sacré coup de change qu’il te ponde une invention!
Espérons juste que l’ado ChatGPT ne traverse pas une phase rebelle anar-punk-emo-goth « no future yolo je fais tout péter ».
« Un spectacle fascinant ».
Je dois être un pauvre boomer qui n’a rien compris, je préfère le couché de soleil en face de moi que ChatGPT qui écrit n’importe quoi …