Forum Clubic

Commentaires : DeepNude : les copies de l'app aussi se font bannir de Github (page 2)

Pour commencer vous me tutoyez d’emblée, donc en termes de modèle de comportement irréprochable à l’égard des autres sur le net, j’ai déjà vu mieux.

Ensuite, quand vous dites “je n’ai pas le droit de créer des outils qui permettraient de porter atteinte à la dignité des personnes” cela n’a aucun sens ! Une simple messagerie permet de porter atteinte à la dignité des personnes. L’Internet permet de porter atteinte à la dignité des personnes.

Donc à votre question “Où s’arrêterait le truc ?” je réponds que “le truc” comme vous dites, est simplement l’une des dérives possibles de l’évolution technologique. La solution passe par l’éducation et non par l’obscurantisme.

Ensuite vous me direz, oui mais cet outil est fait pour ça. Eh bien non: le code en soi pourrait servir à des tas d’autres applications; tout dépend des données sur lesquelles vous effectuez le deep learning !

Le code en lui-même n’est ni bon ni mauvais. Mais si vous entrainez votre réseau neuronal sur des données malsaines, il produira les résultats pour lesquels il a été entraîné.

N’importe quel étudiant avec un notebook et 2 jours de cours d’IA peut produire des résultats malsains, et on appelle ça le revers de la médaille.

2 J'aime

+1

mdr j’ai pas dis que l’ia ou que d’autres outils sont à jeter et sont dangereux !
J’ai juste dit qu’il faut faire attention à certaines utilisation. Perso je m’en fou totalement si tes gamines que tu postes sur FB vont se retrouver sur des sites pédophiles, si au collège, quand elles auront du mal avec leur corps qui changent elles se feront mater à poil par leurs camarades de classes ou si des photos tourneront sur des sites chelou plus tard à cause d’un petit ami crétin ou d’un collègue jaloux ou que sais je, je m’en fou mais perso je veux pas que ca arrive aux personnes de mon entourage.

Je rêve là ! Il suffit de vous citer, ça se passe de commentaire:

“Je n’ai pas le droit non plus de créer des outils qui permettraient de porter atteinte à la dignité des personnes.”

…et ensuite bien sûr:

“J’ai juste dit qu’il faut faire attention à certaines utilisation.”

Non monsieur, ce n’est pas ce que vous avez dit !
CQFD.

1 J'aime

Détenir un logiciel qui permet de dénuder, même pour de faux, des personnes et dont le contenu peut être mis en ligne est aussi dangereux que de posséder un fusil de chasse. Utilisé à bon escient, personne d’humain n’est blessé. À partir du moment où c’est mis entre de mauvaises mains, alors ça devient létal.
La différence étant qu’il faut normalement un permis pour posséder un fusil. Ce qui n’est pas le cas des logiciels de deepfake.

Avant de me dire qu’un logiciel, ce n’est pas fatal, est-ce que je dois vous sortir les statistiques des suicides chez les adolescents victimes de harcèlement ou bien allez-vous les chercher vous-même ? Non, tous les logiciels ne sont pas bons à mettre dans toutes les mains et oui, c’était nécessaire que ce code open-source disparaisse. On a ouvert avec cette initiative une boîte de Pandore dont personne ne sait mesurer les dégâts. Autant limiter la casse. Cela ne fera pas disparaître les deepfakes mais cela rendra la tâche plus difficile.

1 J'aime

Il faut arrêter, les logiciels pour faire des fakes ça existe depuis longtemps, ça s’appelle Photoshop ou Gimp et avec un peu de talent, on peut aussi salir la réputation d’une personne avec ça, ce n’est certes pas automatisé, mais bon, où est la différence. Et puis comme dit plus haut, il y a, je pense des moyens bien plus pervers, dangereux et facile d’accès pour salir la réputation d’autrui que de poster des photos de personne à poil.

Ce qui m’inquiète, c’est que par rapport à la pudibonderie ambiante, on s’offusque de ce genre de chose, mais que ça ne choque personne de foutre les mômes devant la télé ou un jeu smartphone toute la journée pour avoir la paix plutôt que les éduquer et au final les rendre moins sensible à ce genre de bêtises.

Au final, on préfère laissé ce genre de technologie dans l’ombre, et en réserver donc un usage obscur et potentiellement bien plus malveillant que si on se tapaient des deepfake jusqu’à l’écœurement et en arriver au point qu’on finirait par en avoir une vision critique. Parce qu’en dehors de mettre des corps nus sur des têtes habillées, on peut aussi faire bien plus de chose comme manipuler des informations par exemple. Mais bon…

Ça fait toute la différence, justement ! S’il faut des heures et des heures d’entraînement pour arriver à faire ce genre de choses, c’est un obstacle de taille, et personne sauf une poignée d’acharnés sauront faire. Là, c’est laisser la possibilité à n’importe qui, sans aucune forme de jugement, agir sans vergogne et ça facilite, entre autres, le harcèlement en ligne.

Ça ne change rien au schmilblick, personne ne veut se retrouver à poil à son insu sur Internet. Quand c’est voulu, c’est une autre histoire.

Je suis d’accord, c’est bien l’éducation des enfants qu’il faut faire, et avec les bonnes pratiques. Pour ça, il faut que les pères/mères de famille aient le temps de le faire, mais l’ambiance actuelle n’y aide pas.

Alors ça, ça m’écœure, pas tant qu’on veuille qu’un tel logiciel soit accessible, mais qu’on défende sa position pour ce qu’il apporterait soi-disant de different. Qu’est-ce qu’on cache, là, exactement ? Une technologie pour retoucher des images via une IA ? Ça fait des années qu’on sait faire. Les réseaux de neurones en IA, ça fait depuis 3 à 4 ans qu’me tout le monde s’y penche dessus, et l’IA en général existe depuis des années, y compris dans l’imagerie. Google par exemple fait usage des IA absolument PAR-TOUT et ne sont pas les seuls. nViDia a déjà réussi à reconstituer des ralentis grâce au deep-learning, et des IA peuvent déjà constituer des images de personnes n’ayant jamais existé avec plus ou moins de réussite. Non seulement DeepNude n’apportait absolument RIEN de neuf, et j’insiste sur le RIEN parce qu’on a déjà eu des exemples cavaliers de ce que peut faire une IA bien utilisée (comme remplacer la tête de Han Solo joué par Alden Ehrenreich par celle de Harrison Ford), mais en plus inquiète sur les énormes dérives que ces IA sont capables d’implanter. La seule chose à laquelle a servi DeepNude, c’est de relancer le débat sur comment utiliser une IA, débat que les scientifiques tentent d’implanter dans le questionnement public depuis le début de sa réutilisation dans ses formes avancées actuelles.

Cette IA n’a donc aucun aspect ludique, sinon pour son créateur qui trouvera sûrement une place de choix dans une industrie ne s’inquiétant pas de l’éthique et qui veut maîtriser cette technologie.

@overhead59 a t ecouter, on va interdire la voiture parce que potentiellement des gens peuvent tuer? Non on juge ceux qui font des infractions et/ou des accidents. C’est comme ca que fonctionne une democratie. Par ailleurs, tu ne dois pas savoir ce qu est un logiciel parce que potentiellement tous les logiciels a base d IA (sur l image) peuvent le faire. Comprend bien que ces gus ne sont pas des genies mais juste des petits bidouilleurs. Vas tu interdire le monde a faire de l’IA parce que POTENTIELLEMENT c est dangereux? Non bien sur. Bref, que Github/M$ refuse d heberger ce code, c’est leur droit mais sache que le code / logiciel est disponible et pour toujours sur des plateformes non censurables. Que l on mette en prison ceux qui en font un mauvais usage est normal pour moi! Par contre, ton delire de censure absolue n a aucun sens dans une democratie.

1 J'aime

Ils auraient du faire une version gratuite avec censure et une version payante sans censure.

lol

15 sec et j’ai trouvé une version avec bash intégré (pour lancer le process sur des photos à la chaîne.) La censure sur le net ne fonctionne pas. Inutile donc de se focaliser la dessus. Microsoft à juste voulu être dissocier du logiciel, ce qui est normal en soit commercialement parlant.
Le seul truc possible sera d’éduquer et de se retourner contre ceux qui s’en serve sur des personnes non consentantes. Comme les photos prise à l’insu quoi.

Oui je suis d’accord, mais le logiciel n’est pas interdit par la loi. Je ne sais même pas si légalement son utilisation contre une personne non consentante est illégal car celà reste une photo truquée et Si tu le précise.
On e’ reviens de tte manière à s’en prendre à l’utilisateur et non tenter une censure inutile.

Est-ce que au moins une des personnes qui réagi à cet article , à testé ce programme !?
Je ne pense pas …
Moi je l’ai fait ,et je peux vous dire qu’il n’est pas du tout au point , il en est même très loin.

Oui c’est comme les deepfakes qui, quand on y regarde de plus près, sont pas hyper géniaux. Mais vu que ça commence à inquiéter, c’est que dans le lot de toutes les tentatives, plusieurs résultats sont assez crédibles pour qu’on s’en inquiète. Ce qui est important c’est justement de couper le travail de l’IA le plus tôt possible pour éviter que les résultats soient de plus en plus crédible. L’apprentissage par IA est long et dur, mais à partir du moment où elle atteint un niveau humain, l’instant d’après elle a un niveau sur-humain. Autant ne pas l’atteindre dans cette situation.

Ouah ! Vous êtes tous sérieux ? C’est quoi cette question débile ? “Vaut-il mieux interdire la reproduction d’armes a feu, ou une application qui peut déshabillé n’importe qui” Moi je dis les deux !

Sérieusement, imaginez vous 2s pris simplement en photos par des gens et 10mn plus tard vous vous retrouvez (pas avec votre corps bien sur) a poils sur tout les smartphone des gens qui vous croise !?

Arrêtez d’être con, il n’y a pas a choisir entre deux situations, les deux sont a bannir… vous avez vraiment 2 QI…

1 J'aime

Justement. Si cet outil devient archi connu. La fille de 15 ans qui subit du chantage à cause d’une photo, réelle d’elle nue, pourra dire que c’est une fausse photo… Tout arme ou outil peut être utilisé à bon ou mauvais escient.

Alors non parce que l’impact psychique d’un photomontage sur une adolescente de 15 ans est bien réel. Ou bien je vis dans une dystopie où les femmes mettent leur santé en danger à cause de la pression sociale.
[Edit] J’entends par là que déjà une jeune femme peut se faire traiter de tous les noms simplement parce qu’un seul homme aura été trompé par cette dite personne, là où un jeune homme qui fera de même sera moins pris à parti. Un homme tout nu, ce n’est pas considéré comme de l’humiliation, au contraire c’est même le fait qu’il n’aie jamais passé à l’acte qui lui collera au fesses pendant des années. Dans notre construction sociale occidentale, les “puceaux” sont bien plus connoté péjorativement que les… Mince, c’est quoi le mot déjà pour les hommes qui ont eu plein de relations avec des femmes ?
Tandis que de l’autre côté, une femme toute nue sera déjà plus considérée comme une personne qui se dégrade, et si elle a eu plusieurs partenaires, sera moins bien vue que celle qui aura préservé son intimité.
Bien sûr, la tendance actuelle tend à régler cette inégalité de traitement mais tant que cette inégalité existe, mettre une femme à nu à son insu sera hyper-impactant pour la femme et beaucoup moins pour un homme.

Je ne vais pas faire comme si l’inverse n’existe pas : un homme “puceau” sera toujours raillé sur la taille de son membre.

Malheureusement à un moment charnière où on construit son identité, les femmes qui sont maltraités psychologiquement de la sorte à ces âges portent les stigmates de cette expérience à vie. Si vous êtes assez curieux, vous pouvez vous renseigner sur l’histoire d’Angie Varona pour savoir l’importance qu’ont les photos à 15 ans.

Dans certains cas, la réputation est liée à la vie.
Donc la réponse risque d’être complexe.

Sauf que techniquement, c’est une technologie générique utilisée pour faire ces modifications photographique. C’est un peu comme interdire toutes les voitures car certaines peuvent rouler à 300km/h. Le seul moyen que ce genre d’appli disparaisse c’est de faire comprendre aux jeunes que ceux qui s’en servent à l’insu d’autrui sont des cons.

PirBip:

Tu racontes n’importe quoi. Angie Varona dont tu nous donnes l’exemple type comme étant une jeune fille dont les photos volées auraient détruit sa vie, en réalité c’est ELLE-MEME qui balançait ces photos sur internet. Tout un tas de sites, de commentaires l’expliquent.

Elle

Tu nous dis qu’elle se porte mal? Elle va TRES BIEN !!!

C’est elle actuellement sur son compte instagram ou elle poste des photos d’elle, de son cul, nichons, bien cambrée. Ouah, quelle fille super malade.

Trouve d’autres exemples mais là, prendre comme exemple la fille qui a monté elle-même de toute pièce cette histoire. C’est pas 3 photos volées, ni 5, c’est comme par hasard tout son compte photobucket qui a été piraté et elle mettait quoi sur son compte privé photo? Toutes ses photos de nue.

Vas-tu croire que son petit copain la prenait en photo nue et tout naturellement ils uploadaient des tonnes de photos de nus sur ce site? Et comme par hasard le compte est piraté? Et comme par hasard on parle d’elle, elle pleure face caméra, larmes de crocodiles ont répondu des milliers de personnes. Et comme par hasard elle disait elle-même qu’elle continuerait à poster des photos d’elle.

Et comme par hasard elle se créé un gros buzz et depuis elle est suivie par 2,3 millions de personnes, gagne de l’argent grâce aux réseau sociaux. Elle ne s’est pas suicidée, elle est riche, vit de son très beau corps qu’elle montre sous tous les angles.

Mais comme la concurrence est très rude, que de très jolies filles magnifiques font la même chose, pour lancer sa carrière, elle a soit disant fait comme certains qui se font voler leur cassette vidéo porno, vous savez la tendance très curieuse des vedettes au placard qui, pour refaire parler d’elles, revenir sur le devant de la scène, font une cassette porno et comme par hasard elle est volée et se retrouve sur le net et tout le monde en parle.

Pareil ici. J’ai 14 ans, je fais des centaines de photos de nu de moi, puis soit disant on hack mon compte, trop fort les hackers, ils sont tombés pil-poil sur le compte d’une fille de 14 ans qui avait des photos de nus, et voilà, la fille devient célèbre, passe à la télé, pleure et depuis elle continu à se montrer sous toutes les coutures et vit très bien de son “boulot” à se prendre en photo pour ses followers.

Vraiment tu es ridicule. Les vraies victimes n’ont pas des centaines de photos de nues dévoilées sur internet, mais le petit ami qui en balance 2-3 ou 5 ou une vidéo X d’1min pour se venger, mais pas tout un set d’images énormes.

Ne pas confondre les vraies victimes qui sont touchées, avec les manipulatrices comme cette Angie Varona.