L’ARCOM a décidé de monter au créneau après les dérives de Grok sur le réseau social X. L’intelligence artificielle d’Elon Musk, qui génère des contenus intimes sans consentement, pousse le régulateur à appeler les victimes à réagir.
Je ne vois pas pourquoi la justice s’en prendrait à X et à Grok. Quand un voyou vous tue avec un couteau, la justice va-t-elle s’en prendre au fabricant du couteau ? Au vendeur du couteau ? La réponse est non : elle ne s’en prendra qu’au voyou.
Pour Grok, c’est pareil : une IA qui permet de faire des nus, je ne vois pas en quoi ça serait répréhensible. Si on réalise un nu d’une personne non consentante, il suffit de s’en prendre à celui qui a réalisé ce nu, pas à l’IA de Grok ni à X.
En tant qu’hébergeur, X a une responsabilité sur les contenus répréhensible qu’il héberge, dès lors qu’il ne met pas des moyens suffisants pour les effacer rapidement en cas de demande. Moyens que X ne met clairement pas en œuvre.
Au contraire avec l’intégration de Grok il fait tout pour faciliter leur mise en ligne sans aucun contrôle : même celui qui a fait la demande de génération ne peut ni valider ou non la publication une fois l’image générée (c’est automatiquement publié) ni la supprimer à posteriori (elle est publié par le compte Grok, pas par le compte de celui qui a demandé, donc il n’a pas la main pour supprimer le tweet).
X a intégré volontairement Grok pour faire des photos dénudées, même sans le consentement de la personne. Ils sont donc aussi coupables.
Pour reprendre ton exemple, si je te mets un couteau dans la main pour que tu ailles planter tartempion, je suis aussi coupable.
Ce qui est répréhensible, c’est d’avoir permis que ce soit possible, est-ce si difficile à comprendre ?
Un peu ras le bol de l’exemple foireux du couteau : ici, on a plutôt affaire à un vendeur d’arme à feu de gros calibre qui ne vérifie rien (à qui il vend, ce que cela va en être fait). Avec ce genre d’arme, on peut ne jouer que dans un club de tir, pour exploser des cibles, mais on peut faire beaucoup de dégât en dehors.
Sinon, Grok, c’est un peu ces vendeurs d’arme censé ne pouvoir tirer qu’un coup mais qui vendent en parallèle le système bump stock pour le transformer en arme automatique : on est dans le foutage de gueule.
C’est dommage que toi et Blade Hunter (surprise
)vous n’ayez pas pris le temps de lire l’article. Les raisons y sont expliquées et de manière simple. Ça t’aurais éviter de sortir la comparaison inepte du couteau.
Et c’est la même chose que d’habitude. Vôtre idole à coupé dans les équipes de modération et à organiser l’impossibilité (ou la très faible réactivité) de retrait des contenus illégaux. Tu peux dès lors amender ta comparaison de manière adéquate.
ben oui expliques moi pourquoi???
la c’est le seul truc valable pourvoir effacer post et mettre généré par ia pour le reste je ne vois pas ce qu’on peut reprocher à Grok et surtout pas le fait de pouvoir générer des nus.
x a intégré grok pour générer images après ils peuvent mettre générer des nus d’une personne sans consentement peut conduire à la fermeture du compte mais je ne vois pas en quoi générer des nus avec l ia devrait etre interdit.On ne vit plus dans le puritanisme religieux.
Tu vois pas pourquoi ? Oh, juste un petit détail de rien du tout, le droit au respect de la dignité d’une personne. Vraiment, rien d’important quoi. Juste le petit truc qui distingue un être humain d’un gros con. Si une personne n’a pas envie d’apparaître à poil sur Internet, que ça soit une vraie photo où un montage, c’est son droit, et il doit être respecté quand on est un minimum civilisé.
Le consentement de la personne ciblée devrait être vérifié à minima AVANT la publication du nu, et idéalement avant même sa génération. Pas après.
Or actuellement, c’est fait uniquement à postériori, par la modération, et seulement si la personne concernée se plaint (ce qui présuppose déjà qu’elle soit au courant de l’existence de ces nus).
Et encore, même après, la modération ne fait clairement pas correctement le boulot, avec des délais de suppression très long, quand la demande de suppression n’est pas purement et simplement ignorée…
Hum ![]()
@Hanandano Bah oui, il n’a pas tort
C’est ce que je me disais aussi. Je trouvais juste le terme incroyablement pertinent et scientifiquement adéquat ^^
Plus sérieusement, j’arrive pas à comprendre le raisonnement derrière le « oh ça va y’a pas mort d’homme » qu’on nous sert là…
Déjà parce qu’il est exprimé dans un langue … « approximative » ? Mais je dirais qu’il a juste pas compris les enjeux le père keyplus : il semble confondre « généré des nus » et « détourner l’image d’une personne réelle avec des droits ». Et qu’il n’arrive pas à formuler les raisons qui font qu’il est en désaccord avec les positons qu’il n’a pas comprises. Bref, l’auberge tout ça ![]()
C’est aussi stupide ces nus que s’il filmait sous les jupes des filles dans le métro … mais apparemment pour lui rien d’anormal ![]()
C’est pourtant simple : ce sont ceux qui ne sont pas concernés qui disent ce genre de choses. Par contre, tu peux être sûr que ce serait eux qui seraient les plus indignés si par exemple, quelqu’un s’amusait à mettre leur tête sur des corps difformes ou grotesques et envoyait ça à leurs parents/amis/proches/employeurs pour les ridiculiser. ^^
Cela n’a rien à voir avec le puritanisme religieux (je suis personnellement athée et anticlérical).
Le problème, ce sont des photos de gens publiées sans l’accord des personnes concernées, si tu arrives à comprendre ça.
Je voudrais bien voir ta tête si tu te retrouvais sur les réseaux sociaux à poil, parce qu’une de tes connaissances à voulu te faire une crasse.