Les intelligences artificielles peuvent parfois être un atout, mais pas toujours. Si ChatGPT répond en quelques secondes à de nombreuses questions, il ne constitue pas pour autant une source fiable, en particulier lorsqu’il s’agit de santé et de médecine. Après avoir suivi ses conseils, un homme de 60 ans a récemment été hospitalisé.
Un sexagénaire aux urgences avec une peur d’empoisonnement
« Un homme de 60 ans, sans antécédents psychiatriques ou médicaux, reçu aux urgences, explique avoir peur que son voisin l’empoisonne », rapporte le média britannique The Guardian. Le patient présentait aussi de multiples restrictions alimentaires et distillait lui-même son eau à domicile.
Décrit comme assoiffé, le senior buvait pourtant très peu, par crainte de l’eau qui lui était proposée. Les médecins ont alors cherché à comprendre l’origine de ces comportements inhabituels et des symptômes observés à son arrivée.
Un cas de bromisme diagnostiqué à l’hôpital
Plusieurs prises de sang ont été réalisées dès son admission aux urgences. Elles ont permis de diagnostiquer un bromisme, c’est-à-dire une intoxication au brome. Cette substance est notamment utilisée pour désinfecter l’eau des piscines.
En constatant ces résultats, l’équipe médicale a interrogé plus précisément le patient. Celui-ci a expliqué qu’après avoir lu de nombreuses informations sur les effets négatifs du sel sur la santé, il avait décidé d’éliminer le chlorure de sodium de son alimentation pendant trois mois.
Ne sachant pas par quoi le remplacer, il s’est tourné vers ChatGPT, qui lui a conseillé de prendre du bromure de sodium à la place. L’homme savait pourtant que le chlorure pouvait être remplacé par du bromure, mais uniquement dans d’autres contextes, notamment pour le nettoyage.
ChatGPT et la propagation de la désinformation médicale
Ce cas illustre les limites des outils d’intelligence artificielle dans le domaine médical. Même si ChatGPT est réputé pour sa capacité à répondre rapidement sur de nombreux sujets, il ne peut pas remplacer un professionnel de santé.
Pour comprendre comment le chatbot avait pu délivrer un tel conseil, les médecins ont eux-mêmes interrogé l’IA. En reproduisant la même demande que leur patient, ils ont constaté que la réponse mentionnait bien le bromure, sans aucun avertissement sanitaire spécifique.
Les chercheurs ont alors alerté sur le fait que ChatGPT et d’autres applications d’IA peuvent « générer des inexactitudes scientifiques, manquer de capacité à discuter de manière critique des résultats et, en fin de compte, alimenter la propagation de la désinformation ».
Une mise à niveau annoncée par l’entreprise
À la suite de cette affaire, l’entreprise qui gère ChatGPT a annoncé, jeudi 7 août, une mise à niveau de son chatbot. Elle affirme que l’un de ses principaux atouts réside désormais dans le domaine de la santé.
L’IA fonctionne maintenant avec le modèle GPT-5, censé mieux répondre aux questions de santé et signaler plus proactivement d’éventuels problèmes, comme des maladies physiques ou mentales graves.
Malgré ces améliorations présentées comme prometteuses, les scientifiques rappellent que l’intelligence artificielle ne peut pas se substituer aux professionnels de santé. Elle peut servir de pont entre la recherche et le public, mais elle comporte aussi le risque de diffuser des informations décontextualisées. Dans ce cas précis, il est peu probable qu’un professionnel de santé ait recommandé du bromure de sodium à une personne cherchant un substitut au sel.