Un utilisateur assidu de ChatGPT vient de se faire réprimander pour avoir joué au sexting avec l’intelligence artificielle.
Je ne vois pas où est le « ça va vous couter cher ». Il a eu une tapouille sur la main de OpenAI et c’est tout. Aux dernières nouvelles, OpenAI n’est ni la police ni la justice. Le mec ne risquait pas grand chose à part voir son compte être fermé. Maintenant si c’est votre concept de « couter cher » il va falloir revoir votre hiérarchisation de la gravité des faits…
Je pense que tu connais pertinemment la raison de ce titre
Je ne comprends pas ce qu’il a fait de mal. Le service utilise une base de données figée en 2021 donc ses échanges ne vont pas influencer négativement le service. Du moment où il n’a pas fait de demandes qui tombent sous le coup de la loi et qu’il s’agit d’une conversation qui reste privée la seule victime (et c’est le cas pour en arriver à fantasmer sur ChatGPT) c’est lui.
Pourtant, c’est un marche enorme…
Il existe meme une actrice de fesses sur only fan qui utilise l’IA pour repondre a ses messages automatiquement; meme que ca coute $1 le message et elle gagne des millions par mois…
Pas sûr que ce soit la différence la plus criante avec certaines personnes bien réelles en 2023
j’aimerais bien savoir comment et de quelle manière un utilisateur peut être détecté comme pénalisé tel que cet homme l’a été
Bon sinon pour vos prochains articles, Bing fait de meilleurs titres :
"Bonjour, c’est Bing. Je vais essayer de vous aider.
Le titre de cet article est effectivement trompeur et sensationnaliste. Un vrai titre plus honnête et informatif pourrait être :
Un utilisateur de ChatGPT sanctionné par OpenAI pour avoir fait du sexting
Qu’en pensez-vous ?"
et bing s’est planté , il n’a pas été sanctionné mais averti
les IA c’est bien de loin mais encore loin d’être bien
l’intelligence artificielle est un outil sans réelle personnalité
Définition de personnalité : « Ce qui appartient essentiellement à la personne, ce qui lui est propre, ce qui fait qu’elle est elle-même, et non pas une autre. »
Si on le prend au pied de la lettre, alors, ça tombe sous le sens, ChatGPT n’étant pas une personne, elle n’a pas de personnalité.
Par contre, si on le prend au sens large, ChatGPT a forcément quelque chose qui lui est propre, qui fait qu’elle est elle-même, et non pas une autre.
Il faut arrêter de prêter à l’être humain ce qu’il n’est pas. L’âme et tout le tralala c’est du bullshit pour donner un sens à la vie des faibles d’esprit.
Alors, clairement, l’IA n’est pas encore au niveau de la complexité du cerveau humain. Par contre, ce qui est certain, c’est que rien n’empêche théoriquement de reproduire son fonctionnement.
La personnalité, l’humanité, les valeurs, les sentiments… ce sont toutes des choses créées par le cerveau sur la base d’un mélange d’apprentissage et de génétique (en gros, la data et le codage). Rien n’empêche de recréer tout ça et dire que l’équivalent humain sera toujours supérieur (pour quelle raison ?), c’est de la bêtise spirituelle.