Commentaires : Protéger ses photos des modifications par IA ? C'est maintenant possible, voici comment

La création et l’édition d’images ne sont pas épargnées par l’IA, bien au contraire. Dans un souci de protection contre les deepfakes et les altérations d’images non autorisées, le MIT (Massachusetts Institute of Technology) s’attaque frontalement au problème en développant un outil de défense spécialisé.

« Bien que ces perturbations soient complètement invisibles pour l’œil humain » : qu’est-ce qui empêche l’IA d’appliquer un filtre permettant d’enlever les bruits et ne garder que « les pixels visibles » ?

Comment déterminer ce qui est du bruit et ce qui ne l’est pas?
C’est facile pour un humain, vu qu’on voir l’image et on l’analyse. Et dans le cas de la réduction de bruit (Lightroom par exemple), on a tout de même un retour visuel pour jauger de la perte de données/lissage résultant du traitement.
Une IA se base sur les données binaires de cette image, donc identifier ce qui est est du bruit ou pas est compliqué. Soit il détecte correctement et évite la protection, soit il ne la détecte pas, et se fait berner. Dernière solution, il détecte un faux positif, et produira un résultat incorrect

Si tu ne veut pas que l’on utilise tes selfie à ton inssue : « Fout ta cagoule ! »