La Commission européenne propose plusieurs modifications majeures pour le RGPD avec son Digital Omnibus. Au menu : une refonte complète des règles sur les cookies, une nouvelle approche de la pseudonymisation, des IA qui exploiteront vos donnée personnelles et un point d’entrée unique pour signaler les incidents de cybersécurité.
"La Commission explique qu’il s’agit de permettre aux entreprises de tester leurs systèmes et de vérifier qu’il n’y a pas de discrimination.
Concrètement, pour savoir si une IA discrimine les personnes d’une certaine origine, ou donne des diagnostics erronés pour un groupe d’âge spécifique, les développeurs estiment qu’il faut forcément analyser les résultats en comparant les décisions par rapport à ces catégories sensibles. Impossible, donc, de détecter la discrimination sans utiliser les données qui caractérisent les groupes concernés."
Mention gros doigt d’honneur pour la palme de l’enfumage 2025 : réussir à sortir un argument aussi bidon sans perdre une dent, il faut le faire. Et l’accepter comme légitime encore plus.
En ce qui concerne l’IA, moi il y a un point qui me semble d’importance, même si techniquement c’est très compliqué : peut-on demander à ce que des données personnelles disparaissent de l’IA après entraînement? Demander à l’IA d’oublier ce qu’elle sait sur une personne tout simplement… Dans ce cas là, une personne peut faire valoir ses droits de rectifications ou d’oubli. Imaginons le cas où un modèle d’IA dispose de mon nom, mon adresse et bien d’autres choses, que ce soit une IA ou pas, je ne fais pas la distinction moi. Ce sont des données qui sont stockées quelque part, voire même revendues etc.
Sur ce point, c’est directement se plier aux GAFAM et pas forcément aux sociétés européennes de l’IA. Forcément l’UE se rend compte elle même que pour être compétitive avec les sociétés US il faut bien des compromis mais bon…
