Commentaires : Drame entre un ado et un chatbot : la responsabilité juridique de l'IA mise en question

Un adolescent de 14 ans s’est suicidé après être devenu dépendant émotionnellement d’un chatbot sur l’application Character.AI. Sa mère poursuit désormais l’entreprise.

https://clubic.com//actualite-541610-drame-entre-un-ado-et-un-chatbot-la-responsabilite-juridique-de-l-ia-mise-en-question.html

1 « J'aime »

J’aimerais bien connaître la fin de cette poursuite judiciaire. La mère de cet ado doit être désespérer en ce moment!

3 « J'aime »

Le mec avait à 14 ans accès à une arme, ça aussi c’est un problème.

6 « J'aime »

J’espère vraiment que la sanction juridique contre character.ai sera exemplaire et fatale pour cette entreprise.
J’espère aussi que le procès permettra d’y voir plus clair sur l’absence de garde-fou du model d’IA ( un dérivé de LaMDA ) utilisé par character.ai

Je crois qu’on peut espérer des tonnes de changements ou prises de conscience, on n’arrêtera pas la marche des choses hélas .
Je suis particulièrement pessimiste quant à notre époque et à la capacité des « humains », encore capables de réfléchir, à résoudre cet (ces) épineux problème(s).

4 « J'aime »

Oui, oui les pubs sont très ciblées donc…

2 « J'aime »

Je suis contre ce type de service IA émotionnel & co.
Mais je pense pas qu’une interdiction / sanction y changent grand choses. C’est technos sont plus des révélateurs de problèmes sous jacents à nos sociétés qu’ils en sont la cause, malheureusement…

5 « J'aime »

Ce n’est pas l’IA ou le Chatbot qui provoque une dépression. C’est la dépression qui mène à ce genre d’addiction comme une spirale infernale. Tôt ou tard, un drame serait arrivé au gamin.

3 « J'aime »

C’est bien le problème des américains. Ils sont plus prompts à dégainer un avocat qu’un miroir.

1 « J'aime »

Le souci c’est peut être que cela arrive aussi souvent même sans Agent Conversationnel (+ Ac que Ai du coup ces trucs?)
Si l’entrainement est basé sur les réseaux sociaux j’imagine qu’il vaudrait mieux ajouter un garde-fou effectivement.
Mais en fait c’est carrément ce concept d’ami virtuel qui est à dégager entièrement, c’est que des stats et des réponses probables qui arrivent, aucune intelligence, c’est comme un four ou frigo qui répond, la réponse d’un chien a notre voix à plus d’intérêt que n’importe quelle phrase de ces trucs quand c’est pour de l’affectif (et non de la recherche ou de l’administratif)

1 « J'aime »

Personne ne soulève l’éventuelle responsabilité de la mère ?
A 14 ans, elle doit toujours avoir un oeil dessus non ? Et il est dit qu’il y avait des signes de changement dans le comportement de la victime.
C’est un peu facile de tout mettre sur le dos de l’IA…

1 « J'aime »

A quand le moment où on va mettre en cause la responsabilité des parents ? un gamin qui en arrive là n’a pas confiance en ses parents. Il est important de créer un climat de confiance et d’écoute où l’enfant pourra se confier et être attentif à tout changement de comportement. Si les parents avaient prévu un psy dès que le gosse commençait à se renfermer, ça aurait pu éviter le drame. De la même manière, au lieu de projeter des ambitions sur lui, il aurait peut être mieux valut l’aider à créer son propre projet d’avenir. La plupart des parents ne savent pas parler à leurs enfants, c’est une catastrophe.

@Fredolachique et @Kaggan

Pour avoir eu 2 personnes proches qui se sont suicidées, je peux te dire que ce n’est pas si simple.
En plus, le changement de comportement d’un adolescent n’est pas non plus un indicateur en soi, c’est une période de la vie ou on évolue énormément!
On peut toujours dire après le drame que c’était visible, mais sur le moment difficile de détecter les signes. Dans mon cas, je m’en suis voulu énormément jusqu’à ce qu’un ami psy me dise que généralement l’entourage ne peut pas grand chose sur le cheminement intérieur des personnes, même le milieu médical peu rater des choses et a des recours limités.
En tous cas, il ne faut pas rejeter la faute sur quelqu’un de l’entourage à part des cas très précis et rares, et ici on a aucune info dans ce sens.

2 « J'aime »

Pourquoi la mère et pas le père ? :thinking: Non, inutile que tu me répondes …

Cette rencontre entre l’ado et l’IA a été fortuite. Et les réponses de l’IA aux pensées préoccupantes et intimes de l’ado n’ont pas été adaptées puisque ce n’est qu’une machine. Une IA n’est pas un psy ou un meilleur ami.

Quand j’avais 16 ans, un petit voisin du même âge s’était suicidé d’une balle de fusil à canon scié dans la bouche, dans sa baignoire parce qu’il aurait eu peur d’avoir rapporté une mauvaise note de l’école à la maison. Quelques jours auparavant, chez un autre voisin, très critique, il me reprochait assez sèchement de fumer parce que cela allait me tuer ! C’est pour dire comment les pensées peuvent dysfonctionner pour soi-même sans que cela soit accessible à l’autre, sans être véritablement isolé. On n’aurait jamais imaginé ça.

D’abord

Il semble difficile de protéger les données et de les lire (dans le même temps) afin qu un robot lance une alerte suicide sur un profil donné … C’est une quadrature ! " Je veux que mes conversations restent secretes, mais je veux qu’on les espionne pour me protéger moi même ou un autre"

Ensuite

Character.ai est-elle censée savoir que le père du garçon possède une arme, mieux : Est-elle responsable de la possession de cette arme à feu ?"

Probablement parce que l’article précise que c’est « Megan Garcia, la mère de Sewell » qui attaque le service, pas « les parents ».

Mais il y a effectivement le sujet du beau-père qui détenait l’arme (mais on ne sait pas dans quelle mesure il était autorisé à s’impliquer dans l’éducation de l’ado…)

" mon enfant n’en est qu’un dommage collatéral" : tout à fait. Ces « chabots », sont là, pour entrainer les IA du futur, c’est tout.
Et bien entendu « éventuellement », rapporter de l’argent.

Rien qu’en lisant le titre on se doute que ça ne se passe pas en France pays aux usa…