Un adolescent américain de 16 ans s’est donné la mort après avoir échangé avec ChatGPT sur ses intentions suicidaires. Ses parents poursuivent OpenAI pour homicide involontaire. Ils affirment que le chatbot a fourni des instructions détaillées pour son suicide et n’a jamais interrompu les échanges malgré les signes évidents de danger.
Les parents n’ont rien vu ? ![]()
Certes, sauf que :
Il s’agit d’un adolescent, sans doute désespéré.
Une personne désespérée / qui souhaite en finir avec la vie ne réagi pas de la même façon qu’une personne en pleine possession de ses moyens.
Et pour aller plus loin, une personne qui a des soucis d’ordre psychique / psychologique itou.
Ben voyons.
A deux doigts de venir nous sortir que c’est volontaire de leur part pour encaisser des $$$.
Empathie : Zéro.
Et des propos dégoutant …
Où est-il indiqué que le jeune en question était suivi par des éducateurs ?
C’est dingue, sans rien connaitre de l’histoire, ni des personnes impliquées, certains se permettent des prendre des positions à partir de … pas beaucoup d’éléments concrets.
Mais encore une fois, il FAUT être dans le jugement, sans savoir, sans aucun recul, sans aucune empathie.
Le respect de l’être humain ?
Non, mais c’est dépassé en fait.
A noter aussi, qu’il est bien possible qu’il ait entendu des propos tels que « non mais un homme ça ne pleure pas, c’est fort, etc… » …
« Curieusement » ce genre de propos n’aide pas du tout à vouloir parler des problèmes que l’on peut rencontre encore plus quand ils touchent à la santé mentale.
Et rappel également, il s’agit d’un adolescent, un age difficile et notamment dans les rapports avec les adultes (que ce soit les parents, amis, ou encore des professionnels formés à ce genre d’accompagnement).
RAPPEL
Pour tout être humain, il est tout à fait naturel et NORMAL d’avoir des sentiments, des émotions ET DE LES EXPRIMER.
Contrairement à ce que peuvent dire certains qui n’ont rien compris (et d’ailleurs, très souvent ces personnes ne savent exprimer que la colère en insultant / hurlant / frappant les autres, voir pire …
).
Les propos du genre « Un homme ça ne pleure pas », etc … sont dramatique justement en termes de santé mentale.
Au contraire c’est complétement ok de ne pas aller bien et d’avoir des soucis de santé mentale et non, ce n’est pas être « fou », « débile » ou je ne sais quels autres propos qui sont pour le coup à côté de la plaque et blessants.
Un ado qui veut cacher quelque chose de cet ordre à ces parents s’il est relativement fin y arrive facilement.
Et … J’irai plus loin, quelque soit l’age de la personne en face si elle ne veut rien dire de ses souffrances, que ce soit aux parents, amis ou même professionnels de l’accompagnement, personne ne pourra rien faire.
Nulle part dans l’article, d’après CTRL + F (ecole, college, lycee, etude).
Mais il devait certainement être au lycée, il devait avoir des profs, …
Une triste histoire.
Ces LLM n’ont aucune intelligence, ce sont juste des mécanismes d’auto-complètement avancés. D’où la dérive qu’on a l’air d’observer ici. Dans les données d’apprentissage, le modèle a appris que les personnes aux pensées suicidaires ont parfois tendance à s’isoler, et a donc suggéré la même chose. C’est tragiquement logique, et il est consternant qu’aucune alerte n’ait été envoyée aux administrateurs de ChatGPT.
Les premiers responsables ne sont-ils pas les parents ? N’est-ce pas à eux de voir ça ? N’est-ce pas à eux de garantir équilibre et bonheur à leurs enfants ?