Les grands noms de l’intelligence artificielle se sont rejoints pour une déclaration commune. L’objectif est de travailler à empêcher l’utilisation d’outils IA dans le but de générer du contenu à caractère pédopornographique.
Le gros problème avec ces générations d’images rajeunies à caractère pornographique, c’est que je ne pense pas qu’elles puissent, pour l’instant, être sanctionnées par la loi tant qu’on ne les diffuse pas.
Ce qui veut dire que les pédophiles peuvent, en toute légalité, se fabriquer une photothèque d’images d’enfants, y compris avec des photos de personnes prises sur internet, voire de personnes du voisinage photographiées à leur insu.
Je suis curieux de voir comment le législateur va se débrouiller avec ça.
Tous les grands noms… mais sans Twitter. Quelle surprise
Même si sur le papier, l’article de loi sanctionnant les images pédo ne mentionne que la diffusion/transmission, dans les faits la jurisprudence sanctionne aussi la simple détention, en utilisant d’autres qualifications (importation, recel…).
ça fait un longtemps que des modeles d’IA génératives sont utilisable localement. Que ce soit pour la génération de texte, de son ou des images (et même peut être de la vidéo mais j’ai pas creusé).
À priori, non, aucun des qualificatifs utilisés actuellement ne semble pouvoir condamner ça. Mais si de tels cas venaient à devenir très fréquents, la loi s’adaptera sans doute.
Après, je pense quand même qu’il y aussi assez peu de chances qu’un type reste comme ça dans son coin à produire des dessins uniquement pour son usage, sans jamais chercher ni à les partager, ni au contraire à en récupérer d’autres ailleurs.
Après un peu de recherche je suis tombé la dessus.
En 2007, la Cour de cassation a confirmé que les sanctions (article 227-23 du code pénal) concernant les images pédopornographique étaient valables au même titre pour les enfants réels qu’en ce qui concerne des images non réelles représentant un mineur imaginaire.
A l’époque cela visait le hentai pédopornographique mais cela s’étend forcement aux images générée par IA.
Parce que l’expérience a montré plus d’une fois que assouvir les fantasmes pédophiles avec des images augmente grandement le risque d’escalade et de passage à l’acte.
Donc une personne qui fantasme sur de telles images, même s’il ne les diffuse pas, il faut le faire soigner.
Sinon y aurait d’ailleurs pas non plus de raison d’interdire la diffusion hein…
C’est toute la question que soulève l’IA générative dans la sphère privé.
Il me semble en plus que certains travaillaient à « imager » le contenu des pensées, par je ne sais quel procédé.
Je viens de relire le texte de loi et rien n’est dit à propos de sanctionner le fait de dessiner soi-même des personnages mineurs dans des scènes pornographiques. Au contraire, la loi précise bien « en vue de sa diffusion ».
Sur le principe ok, mais se pose un problème. On parle « d’oeuvre » fictive, de « personnages » fictifs censés ressembler à personne, donc il n’y a pas de rapport à une victime potentielle (sauf bien sûr dans le cas où l’image est générée volontairement à partir d’une personne réelle comme l’exemple de l’article).
Si une loi est faite pour sanctionner ça, Nabokov aurait fini en taule avant de terminer son best-seller.