Commentaires : Microsoft corrige le bug qui a permis la production d'images pornographiques de Taylor Swift

Les deepfakes mettant en scène la chanteuse dans des positions suggestives auront au moins le mérite de bousculer le secteur. À l’instar de Microsoft, qui vient de renforcer ses garde-fous dans Designer.

Taylor, tu as les coupables tout désignés! Le voila ton 2e milliard de $!

Et rien sur la personne concerner dans cette histoire précise ?

Il est désormais possible de mettre n’importe qui dans n’importe quelle posture

Sur de simples photos, c’est possible facilement, depuis aussi longtemps qu’il existe des programmes d’édition d’image hein.

Evidemment, mais la facilité déconcertante et l’accessibilités des dits outils fait exploser le volume (et la qualité dans la plupart des cas)
J’ai beau avoir de très solides compétences en Photoshop, j’ai testé et été impressionné des résultats de certains outils spécialisé tournant dans A1111, dans 80% des cas c’est ultra propre !

Et c’est d’ailleurs toute la limite de ces démarches « raisonnées » autour de l’IA, si les outils des grands players (comme Microsoft ici) essaient de mettre plein de garde fous, c’est loin d’être le cas de tout ce que tu trouve à coté quand tu met un tout petit peu plus les mains dans le camboui

1 « J'aime »

Madame Michu aura ses photos pornos générées par monsieur Voisindacote mais pas Taylor Swift ? Ou je me trompe ?

Pas vraiment, d’après ce que je comprends, l’astuce ici permettait vraiment via prompt légèrement détourné (faute de frapes notament) de directement demander à l’IA la génération de l’image avec Taylor Swift, donc personnage connu, présente dans le model d’IA.

Madame Michu elle elle est pas dans le model à priori, donc pas possible comme ça.
Madame Michu elle elle est plutot concerné par du FaceSwap, la finalité est globalement la même mais pas la méthode. Et là comme je le disais au dessus, y’a pas grand chose à faire pour contrôler / limiter cela. Même si tu posais un moratoire absolu sur la technique (illusoire), ce qui est d’ores et déjà dispo est déjà sacrément puissant / efficace / rapide

Les fakes existent en effet depuis bien longtemps; Mais jusque-là, il ne s’agissait « que » de photos.

Maintenant, on en est à mettre une personne en scène dans des films X, avec une telle fidélité qu’on pourrait penser qu’il s’agit bien de la personne dont l’image a été détournée. On ne peut sans doute même pas s’imaginer ce que les victimes de tels montages peuvent éprouver.

Bah, le consentement déjà …

Il y a une immense différence entre s’exposer parce qu’on la choisi et se retrouver exposer contre son gré.

1 « J'aime »

Encore un qui doit croire que marcher en mini-jupe est une invitation au viol tu sais… :roll_eyes: