Un homme de 60 ans s’est retrouvé en psychiatrie après avoir suivi les recommandations erronées de l’IA, de ChatGPT plus particulièrement. Suffisant pour lancer une mise en garde sur les limites des assistants virtuels.
C’est très symptomatique de l’époque actuelle tout ça …
On préfère écouter son beau frère plutôt que le médecin car « il est sûrement payé par la secu pour réduire notre espérance de vie et réduire la durée des retraites » ou écouter son voisin « qui s’y connaît » plutôt que demander à un artisan de venir refaire un câblage électrique …
Bref, il y a des pertes collatérales
Oui, enfin en psychatrie, on a de magnifique medecin incompétant dans le genre…
Le dernier en date que j’ai croisé en CMP a nié le diagnostique de deux centre expert avec remise en question sachant que ces centre expert dépendent du meme hospital… (Autisme et non bipolarité).
Pourtant, l’homme, ancien étudiant en nutrition
Il n’a pas été plus loin que le 1er trimestre, c’est ça ?
La question à terme ne sera pas de savoir si l’IA commet des erreurs mais si elle en commet plus que des médecins qui eux aussi en commettent.
Bonjour,
Moi je vois deux choses.
D’abord la confirmation que les IA dont on ne sait rien sur la création et la programmation, ne font que de la mer…
Secondo si des gens se fient à ces IA et sans vérifier nul part les infos, c’est encore possible, il faut les laisser payer eux mêmes leurs erreurs. Ainsi la sélection naturelle agira.
Sinon, quoi ?
D’une part bientôt, toutes les infos, quel que soit le canal, nous proviendra des IA, donc ce sera de l’info parfaitement invérifiable, à moins d’aller sur des sites destinés aux professionnels de la question qu’on se pose.
Et ensuite, les gens qui sont assez stupides pour favoriser les IA mènent le monde à la destruction en favorisant et hâtant l’hégémonie des IA.
Dès l’école et surtout là, on fabrique des abrutis en les empêchant de se servir de leur cerveau pour apprendre le raisonnement et la critique, je veux dire l’étude critique des choses, il est ensuite inévitable que ces mêmes gens croient les IA comme ils croyaient à des idoles ou autres choses non vérifiées.
Quand on veut une info, on se doit d’avoir plusieurs sources et se servir de son cerveau pour faire le tri des infos. Et si on ne connait pas quelque chose, la plus grande prudence est de mise.
Je lis souvent des posts de gens qui se croient très intelligents de dire que la réponse qu’il donne provient d’une IA. Je trouve cela parfaitement effrayant.
« ChatGPT envoie un sexagénaire qui voulait stopper le sel à l’hôpital »
par contre il envoie pas repasser le bac les journalistes IA qui n’ordonnent pas correctement le COD, le COI et le CPlmt
Avec ce raisonnement j’imagine que pour ta craniectomie tu as consulté ton garagiste. Certes, ils font des erreurs, mais les médecins aussi
En général on fait remarquer l’erreur à la personne sans passer pour un petit c. prétentieux ^^
Ca fonctionne mieux et @AlexLex14 sera sans doute reconnaissant pour ta correction. Merci à toi pour ta vigilance.
Bon après lecture de la source (merci de l’avoir incluse Alexandre) il semblerait que ce soit un peu une tempête dans un verre d’eau.
For 3 months, he had replaced sodium chloride with sodium bromide obtained from the internet after consultation with ChatGPT, in which he had read that chloride can be swapped with bromide, though likely for other purposes, such as cleaning.
On ne sait rien du prompting mais il est hautement probablement qu’il n’ait pas mentionné qu’il voulait ingérer les substances et à simplement demandé par quoi remplacer le chlorure. Et dans leurs essais de reproduction du problème, les chercheurs ont observé que le bot précisait que le contexte était important. Sans toutefois préciser les risques de santé.
Et quand on voit les résultats de GPT5 sur HealthBench https://openai.com/index/introducing-gpt-5/
Je sais que les scores des généralistes en terme de diagnostique ne sont pas fameux (faudrait que j’aille chercher les chiffres) mais bon on est clairement dans un truc a manier avec précausion bon sang ^^)
Bon pas mieux pour le moment mais avec des chiffres us on est sur max 15% et on tourne autour de 5-10% selon les spé. https://www.has-sante.fr/upload/docs/application/pdf/2024-11/rapport_erreurs_diagnostiques_medecine.pdf (mais il faudrait regarder les définitions d’une erreur de diag sur le healthbench et ces chiffres, on ne peut pas trop les comparer comme ça)
ChatGPT savait.
Dans ce cas cité, les médecins ne sont nullement fautifs parce qu’ils ont estimé qu’il était dans l’intérêt du patient d’être hospitalisé pour ses idées délirantes chroniques dues à l’utilisation d’une substance. Ce qui est relativement grave. Nous, on ne connait pas le contenu de ses idées délirantes développées après coup. Nous, on ne peut pas savoir si son cas nécessitait une hospitalisation. Les médecins ne font pas le procès de ChatGPT même si l’IA est en cause dans la dynamique de fonctionnement du patient.
Non mais la question est de qualifier de meilleur le plus efficient sachant que tout est exposé à des erreurs donc à prendre ce qui fait le moins d’erreurs.
Par exemple dans un autre contexte, ce n’est pas parce que une voiture autonome fait un accident que la voiture autonome est plus mauvaise que les conducteurs humains. Ce qu’il faut regarder c’est le taux d’accident dans le cas de la conduite autonome et le taux dans le cas de la conduite humaine. Le but étant à terme de choisir le moyen qui fera le plus baisser l’accidentologie totale.
Si dans 10-20 ans, on se rend compte, par exemple, que statistiquement, c’est la conduite par les humains provoque 10 (voir bien plus) fois plus d’accidents que la conduite autonome, c’est surtout la conduite humaine qu’il faudra incriminer et la conduite autonome à privilégier.
dit-on
envoyer quelque part quelqu’un
ou bien
envoyer quelqu’un quelque part
Le titre m’a paru être une banal traduction de la version anglo-saxonne car la proposition « qui…sel » est mal placée comme si personne n’avait lu avant la publication internet…
Mouais on a jamais dit que l’IA était la référence absolue dans tous les domaines. Ca a accès a des milliards d’infos et autre, mais c’est pas non plus des infos 100%, et bordel qui donne sa vie a une IA ??? P’tain faut avoir un grain dans la tête déjà, comme disait quelqu’un, de toute façon on est déjà dans une société ou tout le monde se prend pour un médecin avec internet, alors avec une IA ca va être une hécatombe.
Il y a pas a dire, l’humain ne s’arrêtera jamais niveau connerie
Tout à fait, l’efficace c’est important, ensuite il y a d’autres paramètres à prendre en compte, surtout dans le cadre médical (confiance, coût, etc.). Là dessus on est d’accord, si on trouve une méthode efficace, on a l’obligation au moins de la considérer (comme tu le dis si bien avec les automobiles).
Et la réponse dans le cas de la médecine on l’a (spoiler: c’est pas ouf, faut regarder plus haut). Dont acte.
Bien sûr ça ne présage rien du futur. Même si je pense que la dichotomie médecin / ia n’est pas pertinente pour penser le monde médical de demain (pour ce qui est de projection à 400 ans et plus bien sûr on peut se faire plaisir et raconter n’importe quoi personne ne pourra vérifier) et on s’oriente bien plus sur des diagnostique assisté par ia (lecture d’examen, etc.) que l’ia qui remplace. Ne serait-ce aussi que pour des questions d’interface.
Mais ce n’est pas vraiment le sujet de l’article. L’article parle plutôt d’un homme qui tente d’être médecin à la place des médecins et en utilisant mal le mauvais outil. Il y a assez peu de choses qui pouvait bien se passer quand on considère 30 secondes le cadre de l’action sans se prendre pour Asimov.
Je trouve que vous êtes extrêmement dur dans votre commentaire.
Pendant le Covid, un certain président a suggéré l’utilisation d’antiseptiques contre la maladie. Les appels vers les centres anti-poison ont explosé après ça parce que des gens avaient ingéré de l’eau de javel…
Des gens avec peu d’éducation ou peu d’intelligence, ça existe. Je préfère des gens simples, authentiques et limités que des c*nnards prétentieux. Ils sont souvent bien plus généreux de leur personne envers autrui. Et personnellement, je passe de bien meilleurs moments avec eux.
Maintenant, concernant cette actualité, il me semble important de se rappeler que nous sommes ici des gens très éduqués sur le thème.
L’IA est en train de toucher toutes les strates de la société et comme pour internet, la téléphonie mobile, l’informatique, il y aura des laissés pour compte qui n’auront pas négocié le virage de cette technologie. Ou des gens qui auront des informations incomplètes de seconde main sans toutes les mises en garde nécessaires (style « tu connais l’IA ? Non, c’est génial, regarde ChatGPT, tu peux lui demander ce que tu veux, il a réponse à tout »). Ce qui est peut être le cas de notre victime ici.
Avant de juger tout un chacun, prenons un peu de recul et réfléchissons plus largement, en tenant compte du contexte, non ?
Si on arrive, sans trop de succès si on est chercheur certes, à limiter les IA a expliquer comment faire une bombe, on peut très bien leur interdire de donner des conseils de santé.
Qui est encore étonné ? Franchement, vu le nombre de gens qui suivent aveuglément leur GPS qui les guide vers un étang, une zone piétonne, une rue privée etc. Au lieu d’ouvrir les yeux et d’allumer les neurones pendant 3 secondes, je ne suis plus étonné de la stupidité des gens.
C’était en partie pareil avec la démocratisation d’internet et même encore avant avec les « recettes de grand-mère » parce que « on a toujours fait comme ça dans la famille, donc ça marche ».
On m’a souvent dit « tu devrais essayer ça, une amie qui s’y connait m’en a parlé, et ça marche ! » « c’est à l’opposé de ce que m’a dit le médecin » « essaie quand même, on ne sait jamais, tu peux pas savoir si t’essayes pas ! » « je pense que le médecin s’y connait un tout petit peu plus que ton ami non ? » « bah sa grand-mère avait un souci similaire et elle a fait comme ça pour guérir » « donc pas similaire, c’est incurable, et je fais plus confiance à quelqu’un qui a un BAC +10 en médecine plutôt qu’une amie pas médecin » « ça tu sais pas ! » « moi non, toi non, ton amie non, sa grand-mère non plus, par contre les médecins spécialistes eux le savent »…
C’est comme ça qu’on fait confiance à des rumeurs, des IA, des « trucs naturels », à des GPS et à des inconnus. Le même genre de personne qui ne va pas croire des études scientifiques sérieuses, prouvées à maintes reprises parce qu’elles ne comprennent pas ou que ça remet en question les idées qu’elles avaient.
Pour citer un bon flim « monde de merde ».
Comment peut-on remettre sa santé, ses décisions dans les pattes d’une intelligence artificielle qui n’est que routines informatiques alimentées par Pierre, Paul et Jacques ???
Cela me dépense, l’évolution nous a muni d’un cerveau , une intelligence humaine qui se travaille, se développe mais voilà, cela nécessite parfois des efforts et miracle, on nous sort « l’IA pour les Nuls »
Et c’est grâce à l’IA aussi qu’il a perdu 10 balais en cours de rédaction ?
Bah non il n’en est absolument pas un exemple frappant justement parce-que ses troubles mentaux sont le résultat d’un empoisonnement, donc origine physique suite à un « conseil » que toute personne un peu sensée ne suivrait pas, alors qu’une « psychose GPT » est engendrée par une interaction purement conversationnelle.
Si il était allé faire une tentative de suicide en s’empoisonnant volontairement (en toute connaissance) suite à une interaction avec GPT, là on pourrait parler de psychose GPT.
Là non, c’est juste le couillon GPT du jour.
Comme si un redneck avait tenté de soigner son COVID avec une injection de javel après avoir entendu son gourou orange proposer ce traitement miracle !
Non ce qui compte c’est la gravité.
Si d’un côté les humains font 300 accidents par million de km parcourus dont 3 mortels et 7 blessés graves, et de l’autre les IA font 30 accidents par million de km avec 10 mortels et 15 blessés graves, bah sûr, le pragmatique, le cynique, le politique populiste de base donc, dira, les IA ont de meilleurs chiffres et du coup ça coûte moins cher donc c’est mieux, l’humaniste lui dira, le pognon on s’en tape, on préfère moins de morts même avec plus de casse et donc de coût matériel…
Tant que cet autrui est de la même couleur et de la même religion qu’eux !
Tiens, moi aussi je peux faire des généralités crasses…