Commentaires : Google : deuxième départ forcé à la direction de la recherche "éthique de l'intelligence artificielle"

Google semble en pleine restructuration de sa division dédiée à l’intelligence artificielle. Une autre responsable affirme avoir été licenciée.

Bah, elles ne faisaient pas plus d’I.A que de beurre en broche; payées pour papoter autour des enjeux … Bla bla bla.

C’est un peu rude comme commentaire et perception du travail de ces 2 chercheuses. L’IA n’est pas que la partie « applicative ». Dans les quelques grandes entreprises spécialisées dans l’IA que je connais, il y a un en général un département « Recherche théorique », un département « Recherche applicative » et un département « Produit applicatif » (les noms différents en fonction des organisations).

Concrètement, le 1er travaille sur la « psychologie » des machines (les biais cognitifs et applicatifs, l’éthique de l’IA, etc.) composés par des spécialistes de différents métiers (vous y trouverez même des auteurs de SF, des sociologues, des neurologues, ou encore des biologistes), le 2nd est la « R&D un peu plus traditionnel » intégrant autant des universitaires et des chercheurs que des équipes de développement, dont le but principal est de concevoir des modèles théoriques ou applicatifs en accord avec une certaine éthique. Et le 3ème est évidemment les équipes en charge de créer / commercialiser un produit informatique : l’exploitation de tout ce travail en amont en quelque chose de commercialisable ou utile (enfin… tout dépend du point de vue de l’organisation).

Et c’est sain de fonctionner ainsi avec des équipes pluridisciplinaires capables de réfléchir à différents aspects d’un problème. Pour l’IA (un mot valise), le travail de ces équipes est justement d’éviter des dérives insidieuses et d’harmoniser les pratiques au niveau des fondamentaux de l’IA.

Vous n’avez pas envie que vore Siri / Alexa ou OK Google collecte vos données sans notion de vie privée, que ces données soient exploitées non pas pour vous aider à une prise de décision ponctuelle mais à des fins d’établir « votre carte de profil et identité numérique » qui sera transmis à d’autres partis sans votre accord ou intérêt, ou encore émettent des recommandations biaisées volontairement ou involontairement qui au final vous influenceraient sans que vous en ayiez conscience. Car une fois en place, cela devient systémique. Et quand cela l’est, il est très difficile de revenir en arrière.

C’est donc parce que c’est encore « nouveau » comme champ de domaine applicatif qu’il est important d’avoir ce genre de travail théorique. Ces groupes de travail font partis de collectifs (universitaire, public ou privé) avec aussi des obligations de partage. Et ceux qui jouent le jeu (une majorité) sont gagnants dans cet échange. Cela permet aussi à des équipes R&D ou applicatives de gagner en temps et investissement. Et ce n’est pas désintéressé pour ces spécialistes comme ces organisations : il y a tout le potentiel de reconnaissance internationale et leadership.

Une confirmation, passons à autre chose, elle reste impact zéro, elle part impact positif. Le choix a été fait.