Commentaires : Mettre l'IA en pause ? Pourquoi Bill Gates n'est pas d'accord

Pour Bill Gates, mettre en pause le développement de l’intelligence artificielle ne serait pas la solution aux défis posés par la technologie.

1 « J'aime »

Arrêtez de parler de l’IA. Ça n’existe pas et n’existera jamais. Ce sont juste des programmes qui appliquent bêtement ce qu’on a programmé de A à Z.

2 « J'aime »

Car MS à investi des milliards dans Open AI ?

8 « J'aime »

Cette question de mise à l’arrêt du développement de l’IA se pose à cause des problèmes éthiques et moraux qu’elle peut poser selon les cultures et les pays. Je ne pense pas que cela soit justifié parce que l’humain peut faire pire de ses propres mains avec un clavier en face de lui. C’est lui qu’il faut modérer et l’IA à améliorer.

Le gars a sans doute plein de tunes placés via sa fucking fondation qui œuvre pour « le bien de l’humanité »…

4 « J'aime »

Quoi qu’on puisse penser de Bill Gates, il a raison, ici. Ce n’est pas parce que quelques occidentaux vont arrêter de travailler sur l’IA que le reste du monde va suivre, Chine en tête. Qui peut croire qu’ils vont dire « oh oui, Elon Musk et ses amis ont raison, arrêtons nos recherches sur l’IA pour leur faire plaisir ». La recherche technologique est une course dans tous les domaines, personne ne cédera sur rien. Si on doit aller à la catastrophe, vous pouvez parier qu’on ira parce que personne ne voudra lever le pied.

7 « J'aime »

Parce que : newatlas . com/technology/ai-danger-kill-everyone/

Toi aussi, tu as appris depuis ta naissance avec des textes et des paroles de tes parents !
L’IA est né hier et grandira comme un bébé devenant adolescent… :sunglasses:

4 « J'aime »

JE vois surtout un vieil homme qui en a rien a secouer.

Dans max 20 ans il sera cané, donc autant continuer la fuite en avant.

Et en même temps, à 50 balais et sans enfant, je vois moi aussi la vie différemment, et au dela de mes idées écolo, il y a des choses depuis quelques temps RAF.

2 « J'aime »

j’suis bien d’accord avec lui, n’arretons pas en si bon chemin

DEVELOPERS!! DEVELOPERS!! DEVELOPERS!! DEVELOPERS!! DEVELOPERS!! * transpiration sous les bras *

Les IA qui font l’actualité actuellement sont des programmes qui simulent le fonctionnement de neurones (pour la plupart). Elles ne sont pas programmées pour faire une tâche précise, elles apprennent à le faire.

Tout comme l’intelligence naturelle est le résultat d’un programme « générique » (ton code ADN) qui va ensuite apprendre à effectuer des tâches.

Même les IA en apparence ultra-spécialisées, comme celles qui jouent aux échecs, elles ne sont pas forcément programmées pour : elles apprennent en jouant au jeu contre elles-même et/ou en regardant des parties d’autres joueurs (certaines IA apprennent même les règles simplement sans qu’on ne les leur ai données explicitement, par observation de parties existantes ou par essai/erreur : elles jouent sous contrôle d’un arbitre qui a chaque coup qu’elles jouent leur dit simplement s’il est ou non autorisé par la règle (mais sans jamais donner la règle ou pourquoi le coup n’est pas conforme à la règle)).

Quand par exemple une IA apprend à reconnaître des photos de chat, à aucun moment le développeur qui a écrit le code de cette IA n’a programmé la reconnaissance de photos de chat (et pour cause, je pense qu’aucun développeur ne serait capable de programmer ça avec un tel niveau de fiabilité que ce à quoi arrivent les IA…). Et dans les IA ayant plusieurs couches de réseau de neurone, les auteurs de ces IA ne sont souvent même pas capable de décrire l’organisation interne du réseau de neurone, car cette organisation n’est justement pas programmée et pas non plus « visible » de l’extérieur.

C’est d’ailleurs un des points sur lesquels certains états voudraient imposer une réglementation de l’IA, en interdisant d’exploiter des IA dont on n’a pas décortiqué et compris le fonctionnement interne.

10 « J'aime »

Le code résultant ne ressemble à rien qu’un programmeur écrirait. Il s’agit principalement d’une matrice colossale de nombres décimaux, chacun représentant le poids, ou l’importance, d’une connexion particulière entre deux « jetons ». Les jetons, tels qu’ils sont utilisés dans GPT, ne représentent rien d’aussi utile que des concepts, ou même des mots entiers. Ce sont de petites chaînes de lettres, de chiffres, de signes de ponctuation et/ou d’autres caractères.

Aucun humain vivant ne peut regarder ces matrices et en tirer un sens. Les meilleurs esprits d’OpenAI n’ont aucune idée de ce que signifie un nombre donné dans la matrice de GPT-4, ou comment aller dans ces tableaux et trouver le concept de xénocide, et encore moins dire à GPT que c’est méchant de tuer des gens. Vous ne pouvez pas taper les trois lois de la robotique d’Asimov et les coder en dur comme les directives principales de Robocop. Le mieux que vous puissiez faire est de demander gentiment.
(Traduit par IA)

1 « J'aime »

Quand Elon Musk dit quelque chose, mon premier réflexe est de me demander ce qu’il a derrière la tête, suis-je le seul ?

Comme dit dans plusieurs commentaires, les IA ne sont pas des programmes qui appliquent bêtement ce qu’on a programmé. Ce sont des réseaux de neurones. Cette technologie a été inventée dans les années 1950 mais ce n’est que dans les années 1990 que leur organisation en autoencodeurs a permis de faire de gros progrès en laissant la machine déterminer la structure sous-jacente des entrées. Plus récemment, le mécanisme d’attention a permis d’établir des corrélations supplémentaires. Les mots sont découpés en sous-unités porteuses d’un vecteur de signification. Le résultat est que la machine est capable d’avoir une compréhension du sens et de généraliser les concepts. Quant à savoir si cette technologie est dangereuse, je le crois. Stephen Hawking disait que l’IA pourrait causer la fin de l’humanité et selon Musk l’IA pourrait être encore plus dangereuse que l’arme nucléaire.

2 « J'aime »

Non pas du tout.

Tout cela est vrai.

Néanmoins : tous les NN actuels sont basés sur nos observations des neurones dans la rétines; le seul endroit du cerveau où l’on voit une organisation en grille des neurones. On n’a toujours pas assez de connaissance sur l’organisation du gros du cerveau. Et de l’aveu même de LeCun et autres à la pointe du domaine : on n’a passé que la première colline, il en reste encore énormément avant de pouvoir faire une vraie AGI/HumLvlAI.

1 « J'aime »

Certains commentaires témoignent d’un obscurantisme voire d’une bêtise que je ne pensais pas rencontrer sur ce site. Quand on voit qu’une IA fait peur à ce point à des humains, on comprend que ceux-là même se sentent menacés.
L’IA ça existe, mais si c’est en dehors de votre compréhension, faites au moins l’effort de vous renseigner pour comprendre que comme tout apprentissage, ce n’est pas magique. De la même manière qu’avant de savoir parler ou même tenir une cuillère pour manger, on vous l’a appris. Après 20 ans d’apprentissage continu de nombreux humains ne sont pas encore au point dans un paquet de choses élémentaires, et certains passeront toute leur vie à ne pas comprendre leur prochain. On ne peut pas s’attendre à ce qu’un « gros programme informatique » ait un raisonnement, même primitif, en l’espace de quelques années. Mais ça viendra, ça viendra…

1 « J'aime »

Je pense que malheureusement Bill Gates à raison.

Certes, les IA posent de très nombreux problèmes/questions/dangers et vont certainement impacter très profondément notre modèle de société. C’est un vrai saut dans l’inconnu. Personne ne peut affirmer que l’homme y survivra.

Mais il ne faut pas oublier que nous vivons dans un monde compétitif. Et qu’au delà de la compétition économique, il y a aussi (et surtout) la compétition militaire.

Les pays qui feront preuve de frilosité prendront un retard certain avec des conséquences qui pourraient être effroyables.

Imaginez seulement si un pays se dote d’une armée de robots et de drones intelligents et que nous ne sommes pas capables de développer assez vite l’équivalent pour nous défendre.

Hélas, quand on constate que notre gouvernement raisonne encore par le concept dépassé de travail humain (travailler plus longtemps), c’est à dire l’économie du 18ième siècle, j’ai bien peur que notre classe dirigeante n’ait pas reçu la formation nécessaire pour comprendre les enjeux technologiques du monde d’aujourd’hui et de demain.

La compétition mondiale, c’est en effet la vraie question. On pourrait gérer l’IA comme on a géré l’arme atomique et limiter sa prolifération, au niveau international. L’arme atomique existe depuis bientôt 80 ans et tout un chacun n’y a pas accès. L’IA dépassera l’humain c’est certain, aucune loi physique ne dit que le neurone biologique est le support optimal pour l’intelligence, mais il faut prendre le temps de faire du « damage control » car pour le moment le modèle basé sur l’intelligence humaine reste central et le détruire ferait beaucoup de mal.

@jbobby : « en laissant la machine déterminer la structure sous-jacente des entrées. Plus récemment, le mécanisme d’attention a permis d’établir des corrélations supplémentaires. Les mots sont découpés en sous-unités porteuses d’un vecteur de signification. Le résultat est que la machine est capable d’avoir une compréhension du sens et de généraliser les concepts… »

Cela me fait penser à des Analyses Factorielles des Correspondances. C’est la méthode statistique utilisée aussi en Tomographie à Emission de Posit(r)ons (PET Scan) ou en Imagerie par Résonance Magnétique fonctionnelle (IRMf).

Sinon, ce sont des méthodes d’imageries médicales qui sont utilisées pour identifier les zones du cerveau qui sont « activées » lors de la réalisation de certaines tâches bien que tout le cerveau soit en activité en réalité : la vision, la compréhension du langage, son expression, la reconnaissance des visages, des émotions et l’expression du comportement, le tout en faisant appel à la mémoire à court ou long terme simultanément.

ChatGPT aurait un petit problème de mémoire à court terme (le lobe frontal) parce qu’il ne retient pas tout ce qu’il y a été dit un peu avant. GTP-4, oui, il paraitrait. Je ne discute pas avec assez longtemps.

Ce serait vraiment incroyable d’avoir toutes les capacités de l’intelligence humaine dans une IA à moins qu’elle soit conçue comme un cerveau avec des zones spécifiques et spécialisées que l’on peut activer au moment voulu mais en même temps toutes reliées entre elles comme notre cerveau.

C’est pourtant toi qui est resté aux if-then-else et cartes perforées. :upside_down_face:

« Tu » ? Je ne suis pas Yann LeCun.