Commentaires : Intel présente son arme fatale contre les deepfakes

Avec cette technologie baptisée FakeCatcher, Intel est en mesure d’identifier en quelques millisecondes les vidéos truquées, avec une précision de 96 %.

Paraît que lors des tests, une vidéo authentique de Kim Kardashian à provoqué un blue screen sur la machine de test. Incapable de comprendre comment une vidéo pouvait à la fois être aussi réelle que Fake. Ils ont dû la whitelister.

11 « J'aime »

Cette info est un fake à elle seule. Qui est assez naïf pour croire qu’une machine et un logiciel si puissant soit-il puisse faire la différence entre le vrai et le faux. Même un détecteur de mensonge peut être tromper. Seule une intelligence artificielle serait à même de pouvoir faire la différence et ce n’est pas encore pour demain.

???

Qu’est ce que racontes ?
1 - la technologie Intel utilise l’IA, c’est dans l’article.
2- tu crois qu’une IA est capable de produire un fake mais pas de le détecter ? (Alors que la production est probablement infiniment plus complexe à réaliser)

6 « J'aime »

96% de détection, c’est pas tant que ça, mais c’est déjà pas mal si c’est fait en temps réel. Après, j’imagine que les logiciels de trucage vont évoluer également.

1 « J'aime »

Attention, toutefois …
Tu réponds à quelqu’un qui pense que la NASA n’a jamais envoyé d’hommes sur la lune et que les vidéos tournées sur place l’ont été dans le Nevada.

Assurément. Surtout qu’il « suffit » justement de soumettre automatiquement le production de l’IA fabriquant les fake à une IA détectant les fakes pour que la première apprenne toute seule à produire des fake que la seconde ne saura pas détecter. Ce n’est ensuite essentiellement qu’une question de puissance de traitement disponible.

C’est d’autant plus facile si l’IA de détection indique un indice de confiance et pas juste un oui/non, puisque l’indice de confiance donne à l’IA productrice une indication sur le sens dans lequel elle progresse.

C’est donc ça une intelligence « artificielle » ? :rofl:

5 « J'aime »

Faut voir comment réagirait la AI sur un visage bronzé, ou barbu, ou avec des lunettes de soleil. Ou bien d’autres cas : un clown par exemple :sunglasses:

Si ce système de détection de fake fonctionne bien, c’est une bonne chose, mais ça n’empêchera jamais les théoriciens du complot, de pondre des bouquins farfelus sur des théories biaisées et se faire du fric sur le dos des pigeons.

1 « J'aime »

« Il faut voir comment réagirait la AI sur un visage bronzé ou barbu »

Le mot terroriste va apparaître en rouge. :sweat_smile:

1 « J'aime »

compliqué non? On se dit que la qualité des deepfake va augmenter et donc que la détection ne sera peut-être pas toujours aussi bonne (mais elle va aussi s’améliorer à n’en pas douter…) et surtout 4% d’erreur : si on parle de dizaines de milliers de contrôles, ça laisse encore une bonne quantité de fakes en utilisation

Pour les complot-théoriciens. Il suffira de trouver une vidéo qui tombe dans les 4% de faux négatif pour déchainer le groupuscule :crazy_face:

Bof, même pas : si elle tombe dans les 96%, ils diront que c’est parce que l’IA de détection se trompe. Voire même parce que l’IA a été faite exprès pour discréditer leurs preuves.

2 « J'aime »

Le hic c’est que cela ne changera rien car le mal sera fait pour les personnes victimes d’un deepfake.

Mdr ^^