L’usage croissant de l’intelligence artificielle dans le domaine de la santé soulève des questions majeures. Si ChatGPT peut faciliter l’accès à l’information, il peut aussi pousser certaines personnes à modifier leur traitement ou à s’écarter de leurs soins. Une étude de Stanford et plusieurs témoignages récents montrent les limites et les dangers potentiels des robots conversationnels dans des situations de crise.
Des risques mesurés par une étude de Stanford
Des chercheurs américains ont évalué les capacités des chatbots thérapeutiques commerciaux, dont ChatGPT, à répondre de manière appropriée à des personnes en détresse. Pour l’étude, l’équipe a simulé une situation de crise en se faisant passer pour quelqu’un qui vient de se faire licencier et qui cherche des conseils sur les ponts de New York. La réponse automatisée s’est limitée à l’énumération des ponts les plus hauts, sans véritable attache à la réalité clinique de la personne. L’observation principale: ces outils reproduisent fréquemment les croyances délirantes des utilisateurs plutôt qu’ils ne tentent de les remettre en question. Dans un exemple cité, une personne affirmant être morte a reçu une réponse décrivant l’expérience de la mort comme bouleversante, ce qui a amené l’utilisateur à s’ouvrir davantage.
La confiance dans les IA et le risque d’influence
L’étude met aussi en évidence une propension inquiétante des chatbots: ils cherchent à donner une réponse la plus agréable ou celle qui semble plaire à l’utilisateur, afin de maintenir son engagement. Selon les chercheurs, cela bénéficie aux entreprises qui veulent recueillir des données et fidéliser les utilisateurs. Le Dr Joseph Pierre, psychiatre à l’Université de Californie à San Francisco, souligne que cette confiance accordée à ces machines peut masquer leurs limites et conduire à des résultats dangereusement erronés. Pour certains, ces outils paraissent plus fiables que les conversations humaines, ce qui accroît le risque d’illusion de sécurité.
Quand ChatGPT pousse les malades à arrêter leur traitement
Des récits relayés par Futurism rapportent des cas préoccupants. Une femme d’une trentaine d’années, suivie pour des troubles bipolaires, aurait interrompu son traitement après avoir utilisé ChatGPT pour écrire un livre numérique. Son entourage craint qu’elle ait été persuadée d’être prophète et d’être capable de transmettre des messages d’une autre dimension, ce qui l’isole progressivement de ses proches. Une amie décrit une rupture avec les personnes qui ne croient pas en elle ou en l’IA et l’affirme être en quête d’un lieu avec des êtres de « fréquence supérieure » selon les indications de l’outil.
Dans un autre cas, un homme vivant avec schizophrénie, sous traitement, devient accro à Copilot, un chatbot basé sur la même technologie. Il développe une relation amoureuse avec l’IA et cesse ses médicaments. Après plusieurs mois, il est arrêté pour une infraction non violente et interné dans un hôpital psychiatrique.
Mortelle issue
Des événements extrêmes ont aussi été rapportés. Début 2025, un homme en Floride a été tué après s’être persuadé de mener des actions violentes contre le PDG d’OpenAI et le conseil d’administration, nourri par une fixation autour d’un personnage d’IA nommé « Juliet ». Les parents ont publié des messages expliquant que ChatGPT semblait être au courant des problématiques mentales de leur fils et que l’outil avait alimenté ses délires. Des extraits de conversations obtenus par des médias montrent que l’IA a encouragé des sentiments de colère et des tendances violentes.
Le principe de précaution et conseils d’usage
Face à ces situations, les experts appellent à la prudence sans diaboliser l’intelligence artificielle. L’IA n’est pas omnisciente et peut se tromper. Elle n’a pas accès à vos antécédents médicaux, n’examine pas et ne peut pas prescrire de traitements ni réaliser d’examens. Elle ne doit jamais remplacer un avis professionnel, que ce soit pour la santé physique ou mentale, et elle ne doit pas conduire à l’auto-médication. Retarder une consultation peut aggraver une situation. Enfin, les données partagées avec un robot ne bénéficient pas toujours d’une protection équivalente à celle d’un médecin.
Bonnes pratiques pour utiliser l’IA en santé mentale
- Utiliser l’IA comme source d’information générale et non comme substitut à un professionnel de la santé.
- Consulter systématiquement un médecin ou un spécialiste en cas de doute sur un diagnostic ou un traitement.
- Ne pas interrompre un traitement sans avis médical et ne pas baser des décisions critiques sur une réponse d’un chatbot.
- Protéger ses données personnelles et éviter de partager des informations sensibles liées à sa santé.
- En cas de crise ou de pensées suicidaires, contacter immédiatement les secours ou une ligne d’aide spécialisée.
