Commentaires : DeepNude : les copies de l'app aussi se font bannir de Github

Pour commencer vous me tutoyez d’emblée, donc en termes de modèle de comportement irréprochable à l’égard des autres sur le net, j’ai déjà vu mieux.

Ensuite, quand vous dites “je n’ai pas le droit de créer des outils qui permettraient de porter atteinte à la dignité des personnes” cela n’a aucun sens ! Une simple messagerie permet de porter atteinte à la dignité des personnes. L’Internet permet de porter atteinte à la dignité des personnes.

Donc à votre question “Où s’arrêterait le truc ?” je réponds que “le truc” comme vous dites, est simplement l’une des dérives possibles de l’évolution technologique. La solution passe par l’éducation et non par l’obscurantisme.

Ensuite vous me direz, oui mais cet outil est fait pour ça. Eh bien non: le code en soi pourrait servir à des tas d’autres applications; tout dépend des données sur lesquelles vous effectuez le deep learning !

Le code en lui-même n’est ni bon ni mauvais. Mais si vous entrainez votre réseau neuronal sur des données malsaines, il produira les résultats pour lesquels il a été entraîné.

N’importe quel étudiant avec un notebook et 2 jours de cours d’IA peut produire des résultats malsains, et on appelle ça le revers de la médaille.

2 « J'aime »

+1

mdr j’ai pas dis que l’ia ou que d’autres outils sont à jeter et sont dangereux !
J’ai juste dit qu’il faut faire attention à certaines utilisation. Perso je m’en fou totalement si tes gamines que tu postes sur FB vont se retrouver sur des sites pédophiles, si au collège, quand elles auront du mal avec leur corps qui changent elles se feront mater à poil par leurs camarades de classes ou si des photos tourneront sur des sites chelou plus tard à cause d’un petit ami crétin ou d’un collègue jaloux ou que sais je, je m’en fou mais perso je veux pas que ca arrive aux personnes de mon entourage.

Je rêve là ! Il suffit de vous citer, ça se passe de commentaire:

“Je n’ai pas le droit non plus de créer des outils qui permettraient de porter atteinte à la dignité des personnes.”

…et ensuite bien sûr:

“J’ai juste dit qu’il faut faire attention à certaines utilisation.”

Non monsieur, ce n’est pas ce que vous avez dit !
CQFD.

1 « J'aime »

Détenir un logiciel qui permet de dénuder, même pour de faux, des personnes et dont le contenu peut être mis en ligne est aussi dangereux que de posséder un fusil de chasse. Utilisé à bon escient, personne d’humain n’est blessé. À partir du moment où c’est mis entre de mauvaises mains, alors ça devient létal.
La différence étant qu’il faut normalement un permis pour posséder un fusil. Ce qui n’est pas le cas des logiciels de deepfake.

Avant de me dire qu’un logiciel, ce n’est pas fatal, est-ce que je dois vous sortir les statistiques des suicides chez les adolescents victimes de harcèlement ou bien allez-vous les chercher vous-même ? Non, tous les logiciels ne sont pas bons à mettre dans toutes les mains et oui, c’était nécessaire que ce code open-source disparaisse. On a ouvert avec cette initiative une boîte de Pandore dont personne ne sait mesurer les dégâts. Autant limiter la casse. Cela ne fera pas disparaître les deepfakes mais cela rendra la tâche plus difficile.

1 « J'aime »

Il faut arrêter, les logiciels pour faire des fakes ça existe depuis longtemps, ça s’appelle Photoshop ou Gimp et avec un peu de talent, on peut aussi salir la réputation d’une personne avec ça, ce n’est certes pas automatisé, mais bon, où est la différence. Et puis comme dit plus haut, il y a, je pense des moyens bien plus pervers, dangereux et facile d’accès pour salir la réputation d’autrui que de poster des photos de personne à poil.

Ce qui m’inquiète, c’est que par rapport à la pudibonderie ambiante, on s’offusque de ce genre de chose, mais que ça ne choque personne de foutre les mômes devant la télé ou un jeu smartphone toute la journée pour avoir la paix plutôt que les éduquer et au final les rendre moins sensible à ce genre de bêtises.

Au final, on préfère laissé ce genre de technologie dans l’ombre, et en réserver donc un usage obscur et potentiellement bien plus malveillant que si on se tapaient des deepfake jusqu’à l’écœurement et en arriver au point qu’on finirait par en avoir une vision critique. Parce qu’en dehors de mettre des corps nus sur des têtes habillées, on peut aussi faire bien plus de chose comme manipuler des informations par exemple. Mais bon…

Ça fait toute la différence, justement ! S’il faut des heures et des heures d’entraînement pour arriver à faire ce genre de choses, c’est un obstacle de taille, et personne sauf une poignée d’acharnés sauront faire. Là, c’est laisser la possibilité à n’importe qui, sans aucune forme de jugement, agir sans vergogne et ça facilite, entre autres, le harcèlement en ligne.

Ça ne change rien au schmilblick, personne ne veut se retrouver à poil à son insu sur Internet. Quand c’est voulu, c’est une autre histoire.

Je suis d’accord, c’est bien l’éducation des enfants qu’il faut faire, et avec les bonnes pratiques. Pour ça, il faut que les pères/mères de famille aient le temps de le faire, mais l’ambiance actuelle n’y aide pas.

Alors ça, ça m’écœure, pas tant qu’on veuille qu’un tel logiciel soit accessible, mais qu’on défende sa position pour ce qu’il apporterait soi-disant de different. Qu’est-ce qu’on cache, là, exactement ? Une technologie pour retoucher des images via une IA ? Ça fait des années qu’on sait faire. Les réseaux de neurones en IA, ça fait depuis 3 à 4 ans qu’me tout le monde s’y penche dessus, et l’IA en général existe depuis des années, y compris dans l’imagerie. Google par exemple fait usage des IA absolument PAR-TOUT et ne sont pas les seuls. nViDia a déjà réussi à reconstituer des ralentis grâce au deep-learning, et des IA peuvent déjà constituer des images de personnes n’ayant jamais existé avec plus ou moins de réussite. Non seulement DeepNude n’apportait absolument RIEN de neuf, et j’insiste sur le RIEN parce qu’on a déjà eu des exemples cavaliers de ce que peut faire une IA bien utilisée (comme remplacer la tête de Han Solo joué par Alden Ehrenreich par celle de Harrison Ford), mais en plus inquiète sur les énormes dérives que ces IA sont capables d’implanter. La seule chose à laquelle a servi DeepNude, c’est de relancer le débat sur comment utiliser une IA, débat que les scientifiques tentent d’implanter dans le questionnement public depuis le début de sa réutilisation dans ses formes avancées actuelles.

Cette IA n’a donc aucun aspect ludique, sinon pour son créateur qui trouvera sûrement une place de choix dans une industrie ne s’inquiétant pas de l’éthique et qui veut maîtriser cette technologie.

@overhead59 a t ecouter, on va interdire la voiture parce que potentiellement des gens peuvent tuer? Non on juge ceux qui font des infractions et/ou des accidents. C’est comme ca que fonctionne une democratie. Par ailleurs, tu ne dois pas savoir ce qu est un logiciel parce que potentiellement tous les logiciels a base d IA (sur l image) peuvent le faire. Comprend bien que ces gus ne sont pas des genies mais juste des petits bidouilleurs. Vas tu interdire le monde a faire de l’IA parce que POTENTIELLEMENT c est dangereux? Non bien sur. Bref, que Github/M$ refuse d heberger ce code, c’est leur droit mais sache que le code / logiciel est disponible et pour toujours sur des plateformes non censurables. Que l on mette en prison ceux qui en font un mauvais usage est normal pour moi! Par contre, ton delire de censure absolue n a aucun sens dans une democratie.

1 « J'aime »

Ils auraient du faire une version gratuite avec censure et une version payante sans censure.

15 sec et j’ai trouvé une version avec bash intégré (pour lancer le process sur des photos à la chaîne.) La censure sur le net ne fonctionne pas. Inutile donc de se focaliser la dessus. Microsoft à juste voulu être dissocier du logiciel, ce qui est normal en soit commercialement parlant.
Le seul truc possible sera d’éduquer et de se retourner contre ceux qui s’en serve sur des personnes non consentantes. Comme les photos prise à l’insu quoi.

Oui je suis d’accord, mais le logiciel n’est pas interdit par la loi. Je ne sais même pas si légalement son utilisation contre une personne non consentante est illégal car celà reste une photo truquée et Si tu le précise.
On e’ reviens de tte manière à s’en prendre à l’utilisateur et non tenter une censure inutile.

Est-ce que au moins une des personnes qui réagi à cet article , à testé ce programme !?
Je ne pense pas …
Moi je l’ai fait ,et je peux vous dire qu’il n’est pas du tout au point , il en est même très loin.

Oui c’est comme les deepfakes qui, quand on y regarde de plus près, sont pas hyper géniaux. Mais vu que ça commence à inquiéter, c’est que dans le lot de toutes les tentatives, plusieurs résultats sont assez crédibles pour qu’on s’en inquiète. Ce qui est important c’est justement de couper le travail de l’IA le plus tôt possible pour éviter que les résultats soient de plus en plus crédible. L’apprentissage par IA est long et dur, mais à partir du moment où elle atteint un niveau humain, l’instant d’après elle a un niveau sur-humain. Autant ne pas l’atteindre dans cette situation.

Ouah ! Vous êtes tous sérieux ? C’est quoi cette question débile ? “Vaut-il mieux interdire la reproduction d’armes a feu, ou une application qui peut déshabillé n’importe qui” Moi je dis les deux !

Sérieusement, imaginez vous 2s pris simplement en photos par des gens et 10mn plus tard vous vous retrouvez (pas avec votre corps bien sur) a poils sur tout les smartphone des gens qui vous croise !?

Arrêtez d’être con, il n’y a pas a choisir entre deux situations, les deux sont a bannir… vous avez vraiment 2 QI…

1 « J'aime »

Justement. Si cet outil devient archi connu. La fille de 15 ans qui subit du chantage à cause d’une photo, réelle d’elle nue, pourra dire que c’est une fausse photo… Tout arme ou outil peut être utilisé à bon ou mauvais escient.

Alors non parce que l’impact psychique d’un photomontage sur une adolescente de 15 ans est bien réel. Ou bien je vis dans une dystopie où les femmes mettent leur santé en danger à cause de la pression sociale.
[Edit] J’entends par là que déjà une jeune femme peut se faire traiter de tous les noms simplement parce qu’un seul homme aura été trompé par cette dite personne, là où un jeune homme qui fera de même sera moins pris à parti. Un homme tout nu, ce n’est pas considéré comme de l’humiliation, au contraire c’est même le fait qu’il n’aie jamais passé à l’acte qui lui collera au fesses pendant des années. Dans notre construction sociale occidentale, les “puceaux” sont bien plus connoté péjorativement que les… Mince, c’est quoi le mot déjà pour les hommes qui ont eu plein de relations avec des femmes ?
Tandis que de l’autre côté, une femme toute nue sera déjà plus considérée comme une personne qui se dégrade, et si elle a eu plusieurs partenaires, sera moins bien vue que celle qui aura préservé son intimité.
Bien sûr, la tendance actuelle tend à régler cette inégalité de traitement mais tant que cette inégalité existe, mettre une femme à nu à son insu sera hyper-impactant pour la femme et beaucoup moins pour un homme.

Je ne vais pas faire comme si l’inverse n’existe pas : un homme “puceau” sera toujours raillé sur la taille de son membre.

Malheureusement à un moment charnière où on construit son identité, les femmes qui sont maltraités psychologiquement de la sorte à ces âges portent les stigmates de cette expérience à vie. Si vous êtes assez curieux, vous pouvez vous renseigner sur l’histoire d’Angie Varona pour savoir l’importance qu’ont les photos à 15 ans.

Dans certains cas, la réputation est liée à la vie.
Donc la réponse risque d’être complexe.

Sauf que techniquement, c’est une technologie générique utilisée pour faire ces modifications photographique. C’est un peu comme interdire toutes les voitures car certaines peuvent rouler à 300km/h. Le seul moyen que ce genre d’appli disparaisse c’est de faire comprendre aux jeunes que ceux qui s’en servent à l’insu d’autrui sont des cons.

PirBip:

Tu racontes n’importe quoi. Angie Varona dont tu nous donnes l’exemple type comme étant une jeune fille dont les photos volées auraient détruit sa vie, en réalité c’est ELLE-MEME qui balançait ces photos sur internet. Tout un tas de sites, de commentaires l’expliquent.

Elle

Tu nous dis qu’elle se porte mal? Elle va TRES BIEN !!!

C’est elle actuellement sur son compte instagram ou elle poste des photos d’elle, de son cul, nichons, bien cambrée. Ouah, quelle fille super malade.

Trouve d’autres exemples mais là, prendre comme exemple la fille qui a monté elle-même de toute pièce cette histoire. C’est pas 3 photos volées, ni 5, c’est comme par hasard tout son compte photobucket qui a été piraté et elle mettait quoi sur son compte privé photo? Toutes ses photos de nue.

Vas-tu croire que son petit copain la prenait en photo nue et tout naturellement ils uploadaient des tonnes de photos de nus sur ce site? Et comme par hasard le compte est piraté? Et comme par hasard on parle d’elle, elle pleure face caméra, larmes de crocodiles ont répondu des milliers de personnes. Et comme par hasard elle disait elle-même qu’elle continuerait à poster des photos d’elle.

Et comme par hasard elle se créé un gros buzz et depuis elle est suivie par 2,3 millions de personnes, gagne de l’argent grâce aux réseau sociaux. Elle ne s’est pas suicidée, elle est riche, vit de son très beau corps qu’elle montre sous tous les angles.

Mais comme la concurrence est très rude, que de très jolies filles magnifiques font la même chose, pour lancer sa carrière, elle a soit disant fait comme certains qui se font voler leur cassette vidéo porno, vous savez la tendance très curieuse des vedettes au placard qui, pour refaire parler d’elles, revenir sur le devant de la scène, font une cassette porno et comme par hasard elle est volée et se retrouve sur le net et tout le monde en parle.

Pareil ici. J’ai 14 ans, je fais des centaines de photos de nu de moi, puis soit disant on hack mon compte, trop fort les hackers, ils sont tombés pil-poil sur le compte d’une fille de 14 ans qui avait des photos de nus, et voilà, la fille devient célèbre, passe à la télé, pleure et depuis elle continu à se montrer sous toutes les coutures et vit très bien de son “boulot” à se prendre en photo pour ses followers.

Vraiment tu es ridicule. Les vraies victimes n’ont pas des centaines de photos de nues dévoilées sur internet, mais le petit ami qui en balance 2-3 ou 5 ou une vidéo X d’1min pour se venger, mais pas tout un set d’images énormes.

Ne pas confondre les vraies victimes qui sont touchées, avec les manipulatrices comme cette Angie Varona.

Tu me prêtes des propos que je n’ai pas tenu, et ça s’appelle un homme de paille. Le cas d’Angie Varona est valable, puisque je ne parlais pas du fait qu’on était malade à vie mais qu’on en portait les stigmates, les cicatrices. J’ai eu de nombreuses cicatrices de mon opération de l’appendicite, ce n’est pas pour autant que ces cicatrices ont disparu, pourtant je me porte très bien, je n’ai pourtant pas de souffrance persistante à avoir été opérée malgré que je me souvienne de la douleur intense que j’ai ressentie à mon réveil. Ce n’est pas parce qu’on a vécu une expérience traumatisante qu’on est incapable de rebondir.

Le fait donc qu’elle ait rebondi suite à cette affaire ne prouve en RIEN qu’elle ne continue pas d’être marquée par cette expérience. Utiliser les faiblesses du passer pour en faire une force moderne, ce n’est pas exactement ce que chacun de nous fait pour éviter de se morfondre? Si elle a décidé de ne pas quitter les réseaux sociaux, c’est son choix de femme libre. Si dans ta tête toutes les victimes se cachent après un coup pareil, alors tu as tort. Justement, c’est parce qu’elle a réussi à retourner son statut de victime que son témoignage est d’autant plus fort.

D’autant plus que ton insinuation de “la fille super malade” occulte le fait que durant sa vie elle a du changer d’école deux fois, que sa situation l’a menée à consommer alcool, drogue, et tentatives de fugue. Mais ça, de toute façon, tu ne veux pas le croire. Oui, je suis plus encline à croire Angie Varona que toi. Pourquoi ? Parce que c’est elle qui l’a vécu. Alors quoi, elle avait posté des photos d’elle nue? Pas du tout, c’était des retouches photos. Mais ça, de toute façon, tu ne voudras pas le croire. Elle a fait l’erreur d’avoir un répertoire de photos privées, qui ont été rendues public par un hacker, coïncidence ? Si le hacker est un sociopathe et qu’il cherche à diffuser des photos à caractère pédopornographique, il le fera peu importe la victime. C’est tombé sur Angie Varona comme ça tombe tous les jours sur des dizaines voire des centaines d’enfants ou adolescent.e.s de par le monde. Mais ça, de toute façon, tu ne voudras pas le croire.

Ton accusation selon laquelle elle a fait ça exprès est totalement infondée. Tu as une preuve de ce que tu avances ? Non bien sûr, tu n’as que des suspicions. Elle vit de son corps comme un modèle après ce qu’elle a vécu ? Sacrilège ! Sa place est dans un mouroir et pas sur Internet à profiter de son succès !
Le succès ne se mérite pas. Le travail n’est pas toujours récompensé par un salaire, le mérite ne s’obtient pas par la reconnaissance d’un public. Et si Angie Varona a su retourner la situation à son avantage, c’est un cas exceptionnel qui ne laisse pas au rebut les milliers de cas de jeunes femmes qui subissent ce genre de choses au quotidien. Celles que tu appelles les vraies victimes.

Alors parlons-en des vraies victimes. Par définition, après le hacking de son compte à son insu jusqu’à ce qu’on prouve le contraire (il y a un fait de hacking, mais aucun fait de volonté à rendre cela public), Angie Varona EST une vraie victime, au même titre que celles qui n’ont été harcelées que par quelques images. Mais tu imposes dans ton argumentaire une échelle de victimisation inversement proportionnelle à la quantité que ces victimes ont eu par exposition. Sauf qu’à partir du moment où la première image est exposée, celle-ci sert potentiellement au harcèlement, donc la quantité n’a aucune espèce d’importance. Elle aurait posté moins de photos dans son photobucket, le résultat aurait été le même.

Donc pour résumer :

  • Tu discrédites cette victime de harcèlement sur le simple motif qu’elle l’aurait bien mérité et qu’elle n’aurait par conséquent pas le droit de faire ce qu’elle veut de son corps;
  • Tu discrédites cette même victime en te basant sur le mensonge qu’elle aurait mis des photos d’elle nue sur son compte alors que ce n’était pas le cas, donc en plus il y a diffamation;
  • Tu imposes une échelle de jugement sur la crédibilité d’une victime reposant uniquement sur la quantité de photographies diffusées alors que seulement quelques photos suffisent pour commencer un harcèlement, ce qui rend l’échelle caduque – et ce n’est certainement pas parce qu’une femme a un corps plus généreux que d’autres et qu’elle en fait une force aujourd’hui qu’elle est moins crédible comme victime de harcèlement;
  • Tu ne crois ab-so-lu-ment pas la parole de la personne qui a vécu le traumatisme de manière avérée alors que tu acceptes volontiers de dénigrer son image sur la simple base de suspicions.
  • Tu la traites de manipulatrice, de simulatrice, simplement parce que “Bouuuh! Elle profite de son corps en public alors que c’est une victime de harcèlement !” occultant les nombreux faits qui témoignent en sa faveur mais croyant en ton jugement et celui d’autres internautes qui se permettent d’utiliser leur simple ressenti comme seul vecteur directeur.

Tes provocations ne servent à rien si tu n’as rien à démontrer. Et tu n’as rien prouvé. Même si ton argumentaire est irréfutable ( “Ses larmes ? elle manipule ! Son hack ? Elle manipule ! Son succès ? Elle a manipulé !”), cela ne constitue en rien une preuve.
Tu pourras aussi me dire que je n’ai pas de recul sur ce qu’Angie Varona dit et que je m’appuie sur son seul témoignage. Cependant, je trouve bien plus crédible une femme témoignant de son harcèlement vécu, et avoir un repenti sincère sur ce qu’elle aurait du éviter de faire, plutôt que la critique hasardeuse et infondée d’une personne lambda qui n’a que son ressenti à partager, même si elle partage ce ressenti avec d’autres. Si ses actions post-harcèlement ont le droit à un traitement critique, comme toute action quelle qu’elle soit, cela ne doit pas occulter les faits.

Je conclus cette longue explication en disant que tu me dis de prendre d’autres exemples, mais qu’as-tu apporté, toi, comme exemple ? Eh bien, aucun. Donc tu t’es amusé à vouloir me rendre ridicule ET rendre ridicule une victime de harcèlement, sans rien apporter au fond. Sophistique, quand tu nous tiens…

En tout cas j’en ai fini avec ce sujet. Je crois que j’ai abordé tout ce que je pouvais à propos de l’IA, de la nudité, des phénomènes sociaux, d’un cas concret, bref. Lirais-je peut-être ce qui est dit plus loin, mais j’ai laissé assez de lecture pour ne pas radoter plus tard. Bonne soirée malgré tout.