Christopher Nolan, le célèbre réalisateur britannico-américain du film Oppenheimer, a récemment établi un parallèle glaçant entre l’avènement de l’IA et l’invention de la bombe atomique.
« il est facile de repérer un pays qui serait en train d’en fabriquer une »
Ce qui ne sert à rien si on ne peut pas les en empêcher.
Personne ne peut réguler l’IA, surtout avec celles en open source, il y a d’ailleurs déjà des développeurs qui ont modifié des IA pour autoriser la génération d’images X.
Je trouve la réflexion de Nolan (étonnamment) pertinente et intéressante vis-à-vis de la place de l’ONU.
Mais je pense que Nolan, l’article, ou les deux, ne sont pas clairs sur le sujet dont ils parlent.
S’il s’agit de l’IA actuelle, je ne suis pas sûr qu’il y ai besoin de légiférer les IA génératives d’une quelconque manière vu leur impact.
S’il s’agit d’une potentielle « intelligence » au sens IA sentiente… c’est de la science fiction actuellement donc pourquoi se concentrer sur l’encadrement d’un truc qui n’existe pas et n’est même pas à l’horizon ?
Pourquoi « étonnamment », Nolan est l’un des rares réalisateurs de blockbusters à ne pas prendre ses spectateurs pour des idiots et à les pousser à la réflexion.
Son film sur la Bombe, car c’est bien elle la vedette du film, pile au moment ou nous sommes plus près d’une guerre nucléaire que nous ne l’avons été depuis la fin de la guerre froide, en est bien la preuve et détonne au milieu de la médiocrité des productions actuelles.
Étonnamment car je n’attendais pas spécialement d’un réalisateur des commentaires sur le terrain plus technique de l’IA. Ce n’est pas un jugement.
Oui et non, une IA générative capable de coder et de se donner des ordres à elle même peut déjà faire énormément de dégats. Et on en est vraiment pas loin.
Et ce sans compter le potentiel de spam, manipulation etc… dû à la facilité de générer du contenu avec des IA.
On est pourtant très loin d’une IA capable de se recoder pour modifier ses objectifs ou ses capacités. Même coder tout court, pour une IA c’est impossible d’aller plus loin que suggérer du code, à la manière de chatGPT (avec un succès très relatif).
En effet, mais en même temps ce n’est pas du tout le début du spam ou des photomontages à but de desinformation. Je ne suis pas sûr du type de loi que l’on pourrait inventer, ce serait comme faire une loi pour dire « Photoshop n’a pas le droit de pouvoir produire de la désinformation ». J’ai vraiment du mal à voir ce que la loi pourrait apporter à la situation actuelle mais je suis preneur de suggestions.
Ma compréhension est que l’IA nécessite de la puissance de calcul fournie par des GPU spécifiques, dont Nvidia a plus ou moins le monopole à ce stade. Ces GPU consomment une énorme quantité d’électricité; d’après Elon Musk l’IA est actuellement limitée par la quantité de GPU et le sera dans le futur par la quantité d’électricité disponible.
Serait-il si difficile de contrôler l’évolution de la production de ces deux éléments sachant que les deux demandent d’énormes infrastructures ?
Les Etats-Unis dominent les progrès sur l’IA, il est évident que les chinois ne sont pas loin derrière justement car ils sont les seuls à avoir les capacités industrielles pour avoir ces deux éléments.
Bonjour,
Merci pour la précision ; le but de l’article n’était pas de faire un cours d’histoire donc je ne me suis pas étendu sur le sujet des précurseurs de cette technologie. De mon côté, l’église est parfaitement au milieu du village. ![]()
Ce n’est pas de mon fait si l’on surnomme Oppenheimer « le père de la bombe atomique ». Il fut le directeur scientifique du Projet Manhattan, à aucun moment je n’ai émis l’idée qu’il fut le créateur de celle-ci.
Bonne journée !
J’aurais ajouter d’aller voir le film qui repond largement a la question. ![]()
Pas si sûr…
Cet exemple n’est pas un contre exemple efficace. Dans ce cas l’IA ne s’est pas recodée (c’est un GAN très classique qui s’est juste entrainé) et n’a développé aucune capacité ou fonction nouvelle (des éléments cryptographiques de base ont été combinés et réutilisés).
Et l’IA n’a pas changé son objectif de base codé par l’être humain (la distance L1 entre texte intercepté et texte inféré dans les expériences). Ca prête même à sourire d’imaginer si les IA pouvaient modifier leur but, ce serait inquiétant mais fascinant.
Et l’IA n’a absolument pas « inventé un langage » c’est totalement risible et ça n’est pas évoqué un instant par les auteurs. Ça aurait été un retentissement majeur dans la communauté scientifique de l’IA à l’époque.
Cette news a été traitée de manière grossière par les médias, c’était un cas d’école de mauvaise médiation déjà à l’époque pour les scientifiques concernés. Pour le vérifier, tout ce que j’avance dans ce commentaire est issu directement de la publication des scientifiques auteurs de l’expérience. Les éléments entre parenthèses sont des paraphrases de l’article lui-même. Voir ici : https://arxiv.org/pdf/1610.06918v1.pdf
Donc personnellement ainsi que pour la communauté académique et au risque d’amoindrir le fantasme : c’est plutôt tranché comme question.
Personne ne peut réguler des humains régulés par des sectes (qui ont eu du succès ou pas). Ce sont ces gens qui vont demander à l’IA des choses diverses. Nolan se trompe de cible, ce n’est pas le marteau qui casse la tête des gens mais le porteur de la main qui le tient.
J’ai vraiment du mal a voir comment ils vont régulé ça, les domaines d’applications de l’IA sont quasi infinie et surtout ça ce passe sur le web là ou il n’y a pas de frontière et énormément de personnes mal intentionnées qui n’ont que faire des régulations.
C’est jouer sur les mots pour un résultat identique : pour celui qui aura la tête cassée, qu’est-ce que ça changera ? ![]()