Le géant de l’IA contre-attaque dans l’affaire tragique du suicide d’Adam Raine, 16 ans, en plaidant la violation contractuelle par l’adolescent. Cette défense juridique, aussi froide qu’implacable, pose une question vertigineuse : un mineur peut-il être tenu seul responsable face à une technologie qu’il a réussi à manipuler pour planifier sa propre mort ?
Comment dire… Une IA qui ne permet pas de faire en sortte de respecter CES PROPRES CGV, c’est assez fou… de dire que c’est l’alpha et l’oméga… Mais pas foutu dêtre un minimum rationelle avec des CGV…
Ils oublient que leur IA c’est eux qui l’ont développée et ont oublié de mettre en place des mécanismes visant à contrôler certaines conversations qui peuvent potentiellement dériver vers des choses dangereuses. Notamment cette tendance à ce que ChatGPT soit souvent d’accord avec l’utilisateur et le caresse toujours dans le sens du poil. Techniquement, ils peuvent analyser le contexte d’une conversation, savoir repérer des signes de détresse etc. C’est facile à dire « c’est pas nous, c’est l’IA »…
Les algorithmes sont quasi infaillibles pour scanner dans les conversations et les habitudes des gens afin de proposer de la publicité ciblée mais pas pour repérer quelqu’un qui va mal et parle ouvertement d’en finir avec sa vie?
Il ne faut pas oublier qu’on parle d’un pays de faux Q, complètement déshumanisé, encore plus depuis l’arrivée de Donald Duck au pouvoir. Rien d’étonnant pour une nation qui accepte de finir SDF dans le mea culpa du « j’ai pas réussi, c’est ma faute ».
Un modèle qui commence doucement à faire son chemin en Europe, comme ici en Belgique, où on va jeter des milliers de personnes dans une pauvreté crasse sous prétexte de redresser les finances publiques.
Évidemment que l’entreprise a raison. L’outil lui indique des centaines de fois qu’il a besoin d’aide mais il l’ignore. Il passe volontairement outre les mécanismes de protection ; c’est comme si la famille de quelqu’un s’étant suicidé à un passage à niveau d’un train portait plainte contre la SNCF parce que les barrières du passage à niveau peuvent être contournées…
Pas de rapport, l ia peut très bien changer la discussion,… Elle sait a peu près l age de la personne devant l écran,…
Et la SNCF leurs service client ne permet pas d avoir une sensation de créer un lien avec le chatbot du site. Voir même l oppose il aime bien contredire
Ce n’est pas une “IA” au sens de conscience artificielle, mais un LLM. La nuance est importante : c’est un outil statistique, pas une entité rationnelle autonome. Et si un LLM était totalement bloqué par ses propres CGV, son utilité serait proche de zéro. Je précise cela pour éviter les faux débats : personne ne prétend qu’un LLM pense ou décide, il s’agit simplement d’un outil dont la valeur dépend de sa marge d’usage.
Un LLM n’est pas une “IA consciente” mais un modèle de langage statistique. Il ne pense pas, n’a aucune intention et ne “sait” pas de quoi il parle. Le problème, c’est que beaucoup ne comprennent pas ce qu’est un LLM ni comment il fonctionne, alors qu’il sera incontournable dans les prochaines décennies. Bloqué, il ne sert à rien ; détourné, il crée des frictions. Mais ce n’est pas une conscience : la responsabilité reste humaine, pas celle de l’outil ou de ses développeurs.
Je pense que c’est réciproque… Je parlait justement hier avec un ricain qui pensait que les français sont des hypocrites ![]()
Il y a 2 versions contradictoires quand même :
- ChatGPT répète à l’ado régulièrement qu’il a besoin d’aide.
- ChatGPT entraîne l’ado dans l’isolement (sous entendu pour le conforter dans son intention suicidaire).
Ces 2 scénarios me semblent mutuellement exclusifs.
D’autre part, je pense que l’utilisation de ChatGPT par l’ado a servi à faciliter ses recherches, comme tout un chacun, surtout si cet ado a sciemment trompé la machine.
Maintenant, on évite une autre vérité qui me semble pourtant plus fondamentale qu’attaquer ChatGPT : manifestement, l’ado avait définitivement décidé de se suicider (ce n’est pas l’IA qui l’y a poussé) et si il voulait se suicider, c’était à cause de problèmes ou d’un mal-être qui n’est jamais évoqué. Quid de la responsabilité des parents ? Ils n’ont vraiment rien vu ? Ils ont laissé faire ?
Non ils ne l’ont pas vu, c’est malheureusement assez facile à cacher ce genre de problème du moment que ton comportement ne te trahit pas suffisamment. Si cela n’était pas avec ChatGPT, cela aurait été avec autrechose. ChatGPT aura été un peu son confident au final durant plusieurs mois. Par contre devant autant de demandes répétées, ChatGPT aurait dû avertir un opérateur de toute ces demandes de la même persone, non ? Je pense qu’il y à matière à rajouter une sécuritée en se sens. Bien qu’au final quasi tout peut-être contourné ![]()
Le problème est qu’un modèle de langage reste ce qu’il est : un outil statistique soumis à des conditions d’utilisation précises. Ton idée est intéressante, mais elle suppose que les LLM ne soient plus de simples générateurs de texte, et qu’ils soient modérés en direct. Vu les millions de requêtes par seconde, cela impliquerait qu’OpenAI, Anthropic ou Gemini disposent de centaines de centres d’intervention humaine, avec des coûts colossaux à intégrer dans leur modèle économique… autant dire mission impossible. Et il faut rester très méfiant avec l’idée que les outils que nous utilisons puissent envoyer des alertes automatiques aux autorités, aux hôpitaux, etc. : cela sent le Big Brother à plein nez.
Or ce n’est absolument pas le but de ces outils, et cela dénaturerait complètement leur utilité. Peut-être que certaines entreprises lanceront des LLM spécialisés dans l’aide aux personnes, avec support humain intégré. Mais soyons lucides : quand quelqu’un a vraiment décidé d’en finir, ce type de dispositif reste d’une efficacité très limitée. Et surtout, il est dangereux de croire qu’un LLM puisse remplacer l’aide humaine : seul un accompagnement réel, par des personnes formées et conscientes, peut répondre à ce type de détresse.
Quand une personne a cette idée fixe en tête et rumine souvent à ce propos, il est parfois très difficile pour ses proches de capter les signaux. Une personne peut avoir des idées négatives et pourtant sourire aux autres en leur donnant l’impression que tout va très bien. Les familles ayant perdu un proche de cette façon le savent : elles diront « On a rien vu venir », « Tout semblait normal ». Et il est difficile de jeter la fauter sur les parents. Car la personne n’en parle pas mais par un après-midi banal craque et décide de quitter le monde tout à coup.
Mais ici, si la personne avoue à ChatGPT qu’elle souhaite mettre fin à ses jours, le système peut détecter.
As-tu fait remarquer à ton copain qu’il est d’un pays qui a voté deux fois pour trumpette ?
Résultat, l’armée et sa Gestapo personnelle dans leurs villes.
En effet, les Français ont une sale réputation un peu partout dans le monde.
Quand je débarque quelque part à l’étranger, qu’on me demande ma nationalité et que je répond que je suis Belge, on me rétorque souvent « ah, ben alors, ça va ! »
Véridique.
Blague dans le coin, forcément, le fossé entre les USA et les pays de la CEE est immense. C’est une culture tout à fait différente.
Perso je préfère quand même vivre en Europe, cela reste toujours plus humains même si la tendance est à l’égoïsme exacerbé.
En effet, les Français ont une sale réputation un peu partout dans le monde.
Faut pas exagérer non plus, je connais beaucoup de pays qui ont une bonne estime des français, et de plus bien meilleure que les allemands ou les russes
J’ai quand même fait 36 pays jusqu’à présent sur tous les continents ‹ sauf l’Océanie ›, je pense être légitime pour le dire.