Des employés, anciens et actuels, de Google DeepMind et OpenAI ont partagé une lettre alertant sur la rapidité de développement des modèles d’intelligence artificielle générative. Selon eux, les motivations financières des fournisseurs empêchent un contrôle approprié pour mitiger les risques de la technologie.
Ça fait peur…
Au moins pour la bombe atomique, c’étaient les forces étatiques qui étaient en charge - des gens élus et bien plus détachés des bénéfices pécuniaires…
Avec l’IA, c’est tout l’inverse… Les forces étatiques sont complètement à genoux (par exemple, il n’y a eu aucune vraie réforme depuis 2008…) et donc c’est vraiment en roue libre…
Se recentrer sur la protection des lanceurs d’alerte est très malin… bien que cela ne changera les choses qu’aux États-Unis…
donc ce sont eux qui créé tout ça, et ce sont eux qui ont peur de leur création?
Le problème maintenant est que cette course folle, au service premier d’intérêts privés (l’I.A peut assurément être porteur de belles promesses d’intérêts communs, comme dans le domaine médical. Mais ce qui est mis en avant depuis deux trois ans, ce sont des projets à intérêt strictement économique. Il s’agit de s’enrichir. Motivation tristement commune), servira en second plan les intérêts des états. Si la Chine investit à fond dans ce domaine, ce n’est pas pour de l’enrichissement privé. Des enjeux économiques et politiques (un secteur où l’I.A est très attendu est celui de l’armement) majeur, à minima potentiel, qui font qu’on ne peut plus s’autoriser à ne plus courir comme des fous. Dés lors les états démocratiques sont non seulement à la traine, mais presque dans l’obligation de baisser les yeux. C’est définitivement effrayant.
Pour rappel, Sam Altman est un survivaliste. Il pense survie (en plus d’enrichissement) avant progrès global pour tous.
Des conflits de plus en plus nombreux, le fachisme qui grimpe un peu partout dans le monde, une situation environnementale mondiale qui amènera des situations dramatiques pour des millions de personnes, des pays possédant ou s’accaparant de matières bientôt indispensables, des entreprises privées ne connaissant que le profit, partout, une augmentation des violences urbaines méprisant les forces de l’ordre ou de secours…si l’IA réfléchit un peu, elle mettra probablement fin à tout ce « bordel » en rayant l’espèce humaine de la planète et "pis c’est tout !!! " C’est cool quoi !!
Ces propos sont tenus malgré l’engagement récent d’OpenAI de supprimer les clauses de non-dénigrement que l’entreprise faisait signer à ses employés, leur faisant courir le risque de perdre leurs actions s’ils critiquaient la start-up.
C’est plutôt grâce à cela que ces propos peuvent maintenant être tenus.
Bof, ces problèmes étant plutôt critique pour l’espèce humaine, ils vont plutôt (et le détachement de mon message ne traduit pas la profonde tristesse de cet état de fait) s’auto-réguler et les IA n’en auront que faire…
Pourquoi « c’était » ?
Ça te semble réellement plus sain l’arme nucléaire dans les mains de Poutine ?
Ils ont beau être élus (déjà, c’est pas forcément le cas ou, du moins, pas de manière transparente et démocratique), ça n’en reste pas moins de humains avec leurs faiblesses.
Puis bon, comparer l’IA à l’arme nucléaire, ça se pose là. On est encore bien loin d’une IA capable de réellement raisonner seule.