Le jeu du chat et de la souris est terminé, et le chat a perdu. Adam Mosseri vient de signer l’acte de capitulation d’Instagram face aux deepfakes : la plateforme ne cherchera plus à traquer obsessionnellement le faux, mais tentera désespérément de certifier le vrai. Un aveu d’échec cinglant.
ben tiens « c’est pas moi c’est l’autre » et comme cela que de fric économisé sur la surveillance. Si les mensonges passent c’est à cause des fabricants et des métadonnées comme si elles ne pouvaient pas aussi être insérées dans un fichiers.
Comme c’est pratique et tellement META
C’est devenu infernal à un point que je vais tout simplement quitter les réseaux sociaux vu que de toutes manières il n’y a plus que du fake-IA.
C’est pas un mal finalement.
Je me suis fais encore avoir sur YT avec une video assez anodine avec des êtres humains à priori mais elle était totalement générée par IA. D’autres sont créées par de jeunes createurs qui sont filmé dans une situation…Par exemple dans un supermarché en train de gueuler à la caisse et c’était un chat habillé en caissier…Bon je me suis « amusé » a tenter de démasquer les videos IA sur les shorts qui m’étaient proposé et le pourcentage était selon moi de pas loin de la moitié. Sans compter les chaines musicales montées de toutes pièces…etc…Perso et cela ne regarde que moi, je vais vraiment déserter les réseaux sociaux…Je retourne lire des bouquins de vieux auteurs humains, relire des BD humaines, revoir d’anciennes séries humaines, aller sur des blogs où je sais que l’humain a écrit le texte. l’IA c’est comme les impôts, Trop d’IA va-t-elle tuer l’IA ?
C’est la seule solution décente.
C’est comme les mails avec l’avènement du spam puis le phishing/…, il faut tout considérer comme frauduleux et faire le tri soi-même pour n’en retirer que ce qui nous parait être bon (pas toujorus évident depuis l’IA)
Idem pour les vidéos/shorts, considérer que tout est faux et faire ensuite sa propre opinion en recoupant l’information.
Perso j’ai lâché les réseaux sociaux depuis belle lurette, marre de me faire partager les fonds d’assiettes et autres conneries…
Sur youtube, ça y va, ça y va. Les vidéos d’animaux secourus, les vidéos de chat, de chien.
Des chaînes à vocation pédagogique pour diffuser la science. Dernièrement je suis tombé sur une chaîne qui reprend le discours d’Étienne Klein, remaché,synthétisé pour en faire de la pédagogie. On voit le visage de Klein (plutôt, on devine, c’est mal fait), sa voix (mal faite) faire un cours sur un sujet donné. C’est pas mal. C’est court pour ceux qui ne veulent pas passer 1 h - 1 h 30.
Dans la présentation de la chaîne, il y a bien un avertissement sur l’objectif et que c’est de l’IA. Mais il devrait mettre cet avertissement en tête de chaque vidéo.
J’ai remarqué un titre p*te à click « pourquoi il est impossible qu’on soit allé sur la lune » pour une vidéo expliquant comment on a réussi à y aller !
Tu peux aussi modifier ton algorithme pour ne plus avoir de videos comme ca. Je n’en ai littéralement aucune sur mon fil car ce que je regarde ne s’y prete pas du tout. Aussi plus tu en regardes plus tu en auras.
Ou est passé le fameux « filigrane » qui était sensé permettre de différencier de manière certaine un objet issue d’une génération via IA, d’un objet qui ne l’est pas ?
La vraie solution serait de supprimer automatiquement toute publication ia et bannir quiconque la publie. Radical mais efficace contre la prolifération de ces m.rdes.
Les générateurs n’intègrent pas tous un filigrane (y a aucune obligation légale, et quand bien même ça serait le cas, t’en aurais toujours pour ne pas la respecter) et il y a des outils pour les faire sauter.
Et en un certain sens, c’est mieux comme ça je trouve : ça oblige à considérer que toute image peut être une fausse, et donc a réfléchir et vérifier systématiquement, alors que si la plupart des contenus IA étaient filigranés, les quelques uns qui ne le seront pas, et en général pour des mauvaises raisons (volonté de tromper) passeraient plus facilement pour vrais…
La seule solution viable est effectivement de mettre plutôt en place des dispositifs permettant de certifier la véracité, avec des signatures numérique intégrées dès la captation et propagées lors de tout le processus de traitement, permettant ainsi de certifier l’origine.
Par exemple, pour les photos, on pourrait imaginer que l’appareil photo produise en plus de l’image de définition réduite et en noir et blanc, signée numériquement pour ne pas pouvoir être modifiée, suffisamment grande pour permettre de vérifier que la « sémantique » de la photo n’a pas été trafiquée et suffisamment petite pour qu’elle ne puisse pas être utilisée à la place de la version publiée de la photo (un photographe n’apprécie souvent pas que ses raw soient publiés et utilisés).
Le même mécanisme pourrait être appliqué à la vidéo, avec les mêmes réductions de définition et de couleur, et, par exemple, une image sur 5.
Il faut éviter les Short sur YT. C’est plus de 25% d’IA
Il faudrait vraiment que le gouvernement s’y attaque ! Comment se fait-il qu’il n’y ait pas de lois ?! Pourquoi l’Arcom ne nous aident pas ? Pourquoi ne pas déléguer la détection et diminuer les visibilité des posts avec IA par des organisations sélectionnées par notre gouvernement ! Ça serait tellement mieux.