Le géant Google se pare d’un nouvel outil révolutionnaire pour identifier les images virtuelles générées par l’intelligence artificielle.
j’ai peine à imaginer que les vérités d’un jour soient vraies demain
(de la même manière qu’un œil averti arrive à détecter une partie des images générées, on peut penser que le perfectionnement des programmes de génération d’images, ainsi que la volonté marketing de dire que « si réaliste que meme SyntID ne détecte pas » aboutira a une course du toujours plus que SyntID ne pourra jamais gagner; à l’image du jeux du chat et de la souris protection vs hacking/cracking )
Je ne sais pas si tu as bien lu l’article car ce machin SynthID n’est pas un détecteur d’image IA (contrairement à ce que suggère le titre) mais un détecteur de watermark (filigrane) apparemment très difficile à « effacer ». Si l’image n’a pas été watermarkée, c’est à dire si le filigrane n’a pas été rajouté par l’outil « IA » qui a généré ces images (ex Midjourney, Dall-e), ce système ne va rien détecter donc pas besoin de course à l’armement dans ce domaine. Le vrai risque est que ces outils de génération d’images n’intègrent pas cette techno (pour l’instant seul Imagen l’incluent). Et même si tous les outils « grand public » l’intègrent il y aura toujours la possibilité de faire tourner un modèle en local. Il y aura aussi vraisemblablement des copycat de ces outils (hébergés sur des sites .ru) qui n’auront pas cette techno de marquage filigrane.