Forum Clubic

Commentaires : Un japonais utilise de l'IA pour "dépixéliser" du porno censuré... avant de se faire arrêter

C’est une arrestation un peu hors-norme. Au Japon, un homme âgé de 43 ans a été interpellé pour avoir retiré les pixels de vidéos pornographiques censurées grâce à une intelligence artificielle.

Il y a le sujet de la violation des droits d’auteur qui devrait entrer en jeu aussi.

Sinon, idée de génie.

Je me demande si un avocat arriverait à démontrer que ce ne sont pas réellement des images pornographique à la manière de « La trahison des images » (on pourrait même garder la phase ceci n’est pas une pipe)

Il a non seulement enfreint les droits d’auteurs et en plus fait de l’argent avec.

Cette racaille a donc eu ce qu’il mérite en se faisant arrêter

Cela rappelle l’époque du Bt848 et Canal+ souvenir souvenir : RARE Carte PC TV -Chipset BT848 (Décode GRATUIT Canal + Ardon 39300

9 J'aime

je savais pas qu ils etaient si pudipond les japs

Ca va, il a pas vendu de la drogue non plus, faut pas pousser, et s’il y a des gogos près à payer pour ça, c’est triste, il y a un tel choix gratos que je ne vois pas l’intérêt de payer ne serait-ce 1€, à la rigueur, les japonais, s’ils sont si bridés que ça ils peuvent toujours s’abonner à un bon VPN.
Triste monde.

Sinon merci clubic pour TecoGan, je connaissais pas.

1 J'aime

Il n’a pas respecté les lois de son pays…

Il aurait eu bien plus de mérite (technique), s’il avait vraiment dépixelisé les images, c’est-à-dire, en réussissant à obtenir l’image censurée originale. Mais l’industrie du porno japonaise doit bien utiliser un logiciel commun (ou 2 ou 3) pour pixeliser…donc ce même logiciel doit bien pouvoir dépixeliser ce qu’il a lui même pixelisé…Non?

Il ne s’agit pas de regarder des vidéos porno non censuré, il s’agit de vidéos porno tourné au Japon qui doivent être obligatoirement censuré.

Ce qui est supprimé ne peut pas être recréé,le seul moyen est d’avoir accès à la vidéo original.

“Pudipond” ? :thinking:

Mais est-ce vraiment une suppression, c’est-à-dire comme un découpage de la zone intime? Car je suppose qu’on demande à un logiciel de suivre et brouiller les parties intimes d’une vidéo, un brouillage réalisé toujours avec le même procédé-recette.

La zone n’est pas effacé ,elle est retaillée/redimensionné/rééchantillonnée à une valeur bien moindre.
Tu peux faire l’expérience en ouvrant une image de 1920×1080 pixels et la retailler en 140x80 pixels avec n’importe quel logiciel (avec Paint sous Windows par exemple).

“spécialisé en cybercriminalité.” — dans un article qui parle de porno et de pixel, mais dans quel monde vit-on !?!

J’ai jamais compris cette manie des japonais de pixelliser leurs film X ?

Les cartes Hauppauge c’était les meilleures :stuck_out_tongue:
Et K!TV c’était pratique :smiley:

2 J'aime

@raymond_raymond

Testé et approuvé avec un simple Pentium II 350 à l’époque… :sweat_smile:

Il y a le sujet de la violation des droits d’auteur

du brouillage, c’est plutôt l’inverse du droit d’auteur, non ? c’est une techno générique qui n’entraine aucune création.

L’IA ne décrypte pas mais devine/suppose les pixels manquant, ce n’est pas du décryptage car l’information n’existe plus sur la vidéo source.

En revanche on ne peut pas juger que c’est un détournement du sens premier de l’œuvre (comme une parodie de la Joconde peut l’être)

Il diffuse donc des vidéos soumises aux droits d’auteur, certes retouchées mais la globalité de l’œuvre reste identique. Pire, il en fait commerce.