Dix patients blessés, des crânes perforés, des AVC provoqués par des artères sectionnées. Depuis que l’intelligence artificielle assiste les chirurgiens, les erreurs s’accumulent dans les blocs opératoires américains.
Le corps humain n’est pas un environnement de test que l’on peut réinitialiser à partir d’une sauvegarde en cas de soucis.
Cela devait arriver si on accorde trop de confiance aux algorithmes et aux machines. Erreur médicale humaine ou machine, la responsabilité devrait être la même et les hôpitaux devraient être sévèrement sanctionnés.
Cela fait presque penser aux accidents du Therac-25, l’un des pire bugs informatiques de l’histoire. L’appareil de radiothérapie envoyait la dose maximale de radiations sur le patient…
La Food and Drug Administration a autorisé 1 357 dispositifs médicaux intégrant de l’IA, soit deux fois plus qu’en 2022.
Quand on connaît les procédures de validation des « dispositifs médicaux » aux USA il y a de quoi grandement s’inquiéter…
L’IA, appellation fallacieuse, à toutes les sauces, c’est la recette parfaite pour un gloubiboulga toxique.
Et aussi, voire surtout, les organismes gouvernementaux qui valident des dispositifs à peine testés, par les fabricants eux-mêmes (voir ce que ça a donné pour le 777 max de Boeing).
Exemple, une boîte médicale fabrique un nouveau dispositif médical, genre robot opératoire, sans « IA », il le fait certifier (procédure moins contraignante déjà que pour un médicament), puis le met en production, l’année suivante il propose une mise à jour du bousin, avec IA cette fois, hop, le dispositif de base étant déjà certifié, la mise à jour bénéfice d’une certification plus « rapide »… Et ça fait de la bouillie de cervelle…
Et ce n’est pas bien plus reluisant chez nous, faire une recherche sur les « implant files » par exemple.
Il y a les interventions préalables qui sont exploratoires et non invasives dans un premier temps. Mais bref, comme dirait l’autre, le risque zéro en médecine n’existe pas.
Vous déformez une bonne partie du sujet de Reuters. Vous affirmez beaucoup de choses alors que Reuters prend beaucoup de recul parce qu’ils n’ont pas eu accès à des documents fondamentaux : ils parlent de faits supposés, pas avérés. Et même là, la mise en cause de l’IA est supposée, pas avérée. La liste des écarts qui déforment la source est notable. Bref… le sensationnalisme avant la justesse de l’information…
Tu es sûr que tu as lu la source jusqu’au bout ? ![]()
Et avec leur ministre de la santé Kennedy junior, ça va encore être pire à l’avenir
Oui complètement. Et plusieurs fois.
The device had already been on the market for about three years. Until then, the U.S. Food and Drug Administration had received unconfirmed reports of seven instances in which the device malfunctioned and another report of a patient injury. Since AI was added to the device, the FDA has received unconfirmed reports of at least 100 malfunctions and adverse events.
C’est faux d’affirmer : l’agence américaine du médicament recense désormais une centaine de dysfonctionnements depuis l’intégration de ces algorithmes, contre seulement sept incidents en trois ans avant leur arrivée. il est marqué unconfirmed reports. Ce sont des rapports d’incidents non confirmés.
FDA device reports may be incomplete and aren’t intended to determine causes of medical mishaps, so it’s not clear what role AI may have played in these events.
Là, c’est écrit noir sur blanc : il n’est pas clair quel rôle l’IA pourrait avoir joué dans ces incidents.
Même Reuters n’a pas pu confirmer que les incidents conduisant à un procès étaient liés à l’IA : Reuters could not independently verify the lawsuits’ allegations.
including a heart monitor said to have overlooked abnormal heartbeats :
il n’y a eu qu’un moniteur cardiaque qui aurait dysfonctionné à cause de l’IA.
Ensuite : Depuis que l’intelligence artificielle assiste les chirurgiens, les erreurs s’accumulent dans les blocs opératoires américains. C’est faux.
The device had already been on the market for about three years. Until then, the U.S. Food and Drug Administration had received unconfirmed reports of seven instances in which the device malfunctioned and another report of a patient injury. Since AI was added to the device, the FDA has received unconfirmed reports of at least 100 malfunctions and adverse events.
Il y aurait eu 7 incidents de mauvais fonctionnement et 1 blessé (encore une fois, non confirmés) avant l’arrivée de l’IA (avec le TruDi, un équipement spécifique) et au moins 10 blessés de 2021 à 2025 ainsi que plus de 100 dysfonctionnements depuis l’arrivée de l’IA sans que le lien de cause à effet ne soit clairement établi.
On ne sait pas si les dysfonctionnements ont des conséquences ou pas. Ca pourrait être un boutonmarche/arrêt qui ne fonctionne pas qu’il y aurait un report qui ferait partie de ces 100 dysfonctionnement sans que ça ait de conséquence.
The FDA cautions that reports of adverse events and device malfunctions are limited: They often lack detail, are redacted to protect trade secrets, and can’t be used alone to place blame. The agency also sometimes receives multiple reports for a single incident.
Ce que je veux dire, c’est qu’à l’heure actuelle, il n’y a pas de preuve que ce sont les équipements et l’IA qui soient en cause, ni quels sont tous les faits. Ce sont juste des rapports d’incidents. Et il y en a parfois plusieurs pour un même incident. Quant aux blessés, ils restent marginaux en quantité (on ne parle que de 2 procès sur 4 ans d’utilisation) et encore une fois, le lien de cause à effet n’est pas établi, à l’heure qu’il est.
Il est probable que soit l’IA est en cause, soit les opérateurs n’ont pas été suffisamment/correctement formés. De plus, les hallucinations ne sont pas seules en cause puisque le créateur dans sa précipitation s’est contenté d’un taux de 80% de précision. Dans ce cas, l’IA peut respecter la procédure sans hallucination mais tomber dans les 20% d’imprécision et dans ce cas, ce n’est pas l’IA qui est en cause (elle a respecté le process), c’est le producteur de la machine pour ne pas avoir fourni des marges de précision suffisantes (je trouve d’ailleurs hallucinant que des gens utilisent un produit aussi risqué avec seulement 80% de précision).
Concernant les moniteurs cardiaques : Medtronic told Reuters that it reviewed all 16 episodes and concluded its device only missed one abnormal heart-rhythm event. “None of these reports resulted in patient harm,” it said. Medtronic said some of the incidents were related to problems with data display, not the AI technology. It declined to explain fully what went wrong in each incident.
Encore une fois, l’IA ne serait pas en cause. Mais là encore, tout n’est pas révélé.
D’où mon post précédent.
Edit : mise en page.
Quel genre d’IA ? Des réseaux de neurones entraînés à une tâche spécifique ?