Commentaires : Une IA plus intelligente que les humains ? C'est pour l'année prochaine selon Elon Musk

Pour Elon Musk, c’est incontestable, l’IA sera plus intelligente que l’homme, et ce, dès l’année prochaine (ou au pire en 2026). Rappelons que xAI a été fondé l’an dernier, en réponse à OpenAI.

hélas ce n’est pas l’IA qui devient plus intelligente que les êtres humains, ce sont les êtres humains qui se sont abrutis.
La preuve : l’IA pond un texte, une image, une video : et on applaudit sans aucun esprit critique. Comment le pourrait-on, sans un minimum culture ?

Autre exemple :

  • avant : le cosinus c’est l’abscisse d’un point qui se situe sur un cercle de rayon 1
  • maintenant : le cosinus c’est la petite touche qui est sur ta calculette !
11 « J'aime »

Il n’a pas aussi dit que la conduite autonome serait au point l’an prochain ? Bizarre, il fatigue…

7 « J'aime »

Comme on ne pourra plus déceler le vrai du faux, Internet ne pourra plus être un média d’information. Cela sera plus simple pour les dictatures / lobbys de nous inonder de bobards que d’essayer de tout bloquer.

1 « J'aime »

Dans un an selon Musk… Soit dans environ 10 ans en temps « vrai ».

1 « J'aime »

Plus intelligente que Musk en tout cas c’est fait depuis plus de 20 ans.

7 « J'aime »

Le temps Muskien étant légèrement dilaté, comme le Melon de ce type, c’est pas près d’arriver chez xAI…

Et lui qui veut une autorité de régulation alors qu’il fait tout pour ne respecter aucune loi, aucune agence gouvernementale, qu’il a viré tous les modos et équipe éthique de Twitter… Mais quelle vaste blague ce type… La décadence en temps réel…

4 « J'aime »

C’est un peu comme si le Docteur Mabuse nous promettait la panacée universelle.

Encore un truc qui va être top tendance sur :skull_and_crossbones:.

L’humain est de plus en plus débile donc ça ne sera pas compliqué.
Par contre l’IA a besoin de l’humain pour apprendre, il n’est pas encore capable de réfléchir.

1 « J'aime »

Si un eleve a eu son brevet il le sait
Et vous donnez la definition geometrique mais a ses limites du triangle rectangle, dans la vie il y a pas que des triangles rectangle ou on utilise cos
Il y a le cercle unité et autres . Donc au final cos est une fonction trigonometrique et pas votre def de triangle rectangle
Et dans votre def

L abscisse c est le côté adjacent mais pas le cos qui lui est le résultat de adjacent/hypotenus

Bref ia plus intelligente a ce que je vois

Vous dites la même chose de manière différente… :smiley:
Mais sa définition est bien plus claire, la vôtre un peu confuse. :wink:

1 « J'aime »

C’est le monsieur qui nous promet la conduite autonome de niveau 5 pour l’an prochain depuis 10 ans sur ses Duracell à roulettes? Ou bien c’est celui qui veut envoyer 1 million de personnes sur Mars en 2050?

3 « J'aime »

Je discute avec des fachos sur discord qui pensent aussi que le « politiquement correct » ( qui les empêche juste à eux d’exprimer librement leurs haine des autres, c’est essentiellement le problème ) est plus grave, plus terrifiant, que la mort elle même

1 « J'aime »

Mdr

L’un n’empêche pas l’autre.

A savoir quand ? les 2 courbes se croiseront, cela s’est peut-être déjà produit, ou pas encore, selon Musk.

GPT-4 pourrait déjà presque être considéré comme plus « intelligent » que les humains (du moins plus que 98% d’entre eux) : il est capable de résoudre des problèmes complexes, de passer des concours de droit, de médecine, etc.
Seule son incapacité à planifier (inhérente aux modèles de language) l’empêche d’être vraiment considéré comme « intelligent ».

1 « J'aime »

Perso si on peut remplacer nos dirigeants actuels par une IA, je signe tout de suite. Même GPT-4 serait probablement plus compétent et moins sociopathe…

1 « J'aime »

La puissance de traitement des IA est encore très loin de celle d’un cerveau Humain.
1 million de fois moins rapide avec une largeur de bus 10 millions de fois plus étroite.
Par contre des systèmes expert d’aide à la décision sont et seront très utiles.
Mais les IA n’ont aucune conscience, elles traitent uniquement des probabilités.
Les IA choisissent un nombre, un point c’est tout.

je ne sais pas si tu peux balayer ça de cette façon.
si on parle de calcul juste, déjà, c’est mort, la machine éclate le cerveau humain et là on parle pas en millions, mais en milliards de fois.
Donc le fait de passer par le proxy « calculs » pour aboutir à un résultat similaire ou proche d’une pensée peut être vu comme un accélérateur.
la vitesse de génération du texte semble bien plaider pour ça d’ailleurs.

( je parle bien sûr en inférence, pas en apprentissage)

Aujourd’hui la plupart des tests sont tombés, idem pour Turing.
La conscience générale et l’intentionnalité, qui caractérisent encore la pensée humaine par rapport aux IA n’est pas encore codée,
mais Musk a raison, y’a de nouveaux algos (dont JEPA, mais pas que) qui amènent à

  • une conscience de l’environnement
  • une conscience ( balbutiante ) du « soi » vs « les autres », démontrée par Figure
  • une considération et mesure de son action dans le réel pour auto-évaluation. (idem)

maintenant améliore ces algos et multiplie la puissance du hardware par 10 voir 200 pour les inférences ( ce qui va être délivré pas plus tard que cette année par Nvidia et Groq LMU , et ça te donne une vague idée de ce qui va tomber d’ici 12 mois.

après, c’est du doigt mouillé à la Musk dont on connait la fiabilité calendaire douteuse, mais sur le fond, si c’est pas au cours de cette année ou fin 2025, je n’ai aucun doute sur la raclée que l’IA va nous mettre dans tous les domaines d’ici même pas trois ans si les évo hardware+software continuent à cette allure

1 « J'aime »

Je pense que tout comme Musk, vous faites de anthropomorphisme.

Comparer les calcules d’un PC aux calcules fait par un être humain, est-ce bien pertinent? Un être humain n’a jamais résolu 1+1. Il a vu ses mains et a mis un mot dessus, il a résolu un exercice pour une raison valable, il a partagé sa bouffe avec un autre. A chaque fois il fait 1+1, mais en même temps, n’a jamais fait le moindre calcule comme vous l’entendez… Jamais une IA ne pourra faire 1+1 comme le fait l’humain. c’est aussi simple que cela. Elle pourra donner via un écran, le résultat de n’importe quel calcule, elle n’aura pourtant toujours pas fait 1+1 comme pourrait le faire un humain.

« Une IA aussi intelligente qu’un être humain » est une phrase qui n’a aucun sens d’après moi (remplacer « être humain » par « singe » ou « chien » et ça marche tout aussi bien)

faut prendre du recul sur l’accusation random d’anthropomorphisme.

le but même d’une IA c’est, précisément, l’imitation d’un raisonnement humain, c’est d’être « antropomorphe » dans son interaction.

au final on se fiche bien de la façon dont il y parvient, d’il compte sur ses doigts ou chie des électrons,
ce qui compte c’est qu’à la fin il échange avec toi, te réponde, te trouves des solutions « à la manière d’un humain » mais plus vite voir plus juste que toi.

1 « J'aime »