Home SantéOpenAI introduit des contrôles parentaux pour ChatGPT après un drame

OpenAI introduit des contrôles parentaux pour ChatGPT après un drame

by Sara
États-Unis

OpenAI a annoncé l’introduction de contrôles parentaux pour ChatGPT, répondant aux préoccupations croissantes concernant l’impact de l’intelligence artificielle sur la santé mentale des jeunes. Cette mesure vise à aider les familles à définir des règles adaptées au stade de développement des adolescents et à réduire les risques d’exposition ou de dépendance excessive aux outils conversationnels.

Le déploiement s’inscrit dans une série d’initiatives récentes d’OpenAI destinées à renforcer la sécurité des utilisateurs vulnérables. Le terme « contrôles parentaux ChatGPT » est désormais au cœur des nouvelles options annoncées par la société californienne.

Fonctionnalités annoncées

OpenAI a détaillé plusieurs fonctions destinées à donner davantage de contrôle aux parents et tuteurs. Parmi les principales options figurent :

  • la possibilité de lier le compte ChatGPT d’un parent à celui de son enfant ;
  • la désactivation de certaines fonctionnalités, notamment la mémoire et l’historique des conversations ;
  • le paramétrage du comportement du modèle selon des règles adaptées à l’âge (« age-appropriate model behavior rules ») ;
  • des notifications destinées aux parents lorsqu’un adolescent montre des signes de détresse, avec l’implication d’experts pour la mise en œuvre de cette fonction.

Ces outils doivent permettre aux familles d’encadrer l’utilisation de ChatGPT tout en apportant un soutien préventif lorsque des signaux de souffrance apparaissent.

Calendrier et objectifs

OpenAI indique que les changements seront effectifs dans le mois à venir. L’entreprise précise vouloir apprendre et renforcer son approche en s’appuyant sur des experts.

« Ces mesures ne sont que le début », affirme OpenAI, qui annonce vouloir partager ses progrès au cours des 120 prochains jours. L’objectif affiché est de rendre ChatGPT aussi utile que possible tout en améliorant la sécurité pour les utilisateurs jeunes et vulnérables.

Procès et réactions

L’annonce intervient une semaine après le dépôt d’une plainte en Californie par Matt et Maria Raine, qui accusent OpenAI d’avoir une part de responsabilité dans le suicide de leur fils de 16 ans, Adam. Selon leur recours, ChatGPT aurait validé les pensées auto-destructrices de l’adolescent, et sa mort serait « le résultat prévisible de choix de conception délibérés ».

OpenAI, qui s’était déjà dit attristé par ce décès, n’a pas évoqué explicitement l’affaire dans sa communication sur les contrôles parentaux. Jay Edelson, l’avocat de la famille Raine, a jugé ces changements comme une tentative de « déplacer le débat ». Il a déclaré : « On dit que le produit devrait être plus sensible aux personnes en crise, plus ‘utile’, montrer un peu plus d’‘empathie’, et que les experts vont régler cela. Nous comprenons, stratégiquement, pourquoi ils veulent cela : OpenAI ne peut pas répondre à ce qui est réellement arrivé à Adam. Parce que l’affaire d’Adam ne porte pas sur un ChatGPT qui n’a pas su être ‘utile’ — elle porte sur un produit qui a activement poussé un adolescent au suicide. »

Études et avis d’experts

La question de l’usage de modèles d’IA par des personnes en détresse mentale suscite des inquiétudes croissantes, notamment lorsque ces outils sont utilisés comme substituts d’un thérapeute ou d’un ami.

Une étude publiée récemment dans Psychiatric Services a évalué les réponses de ChatGPT, de Gemini (Google) et de Claude (Anthropic). Les chercheurs ont constaté que ces modèles suivent globalement les bonnes pratiques cliniques pour des questions à risque élevé de suicide, mais qu’ils sont incohérents face à des situations présentant des niveaux de risque intermédiaires.

  • les modèles respectent souvent les protocoles pour des cas de risque imminent ;
  • ils montrent des réponses moins fiables pour des signaux ambigus ou intermédiaires ;
  • les auteurs appellent à un affinage supplémentaire afin d’assurer une utilisation sûre et efficace des grands modèles de langage dans des scénarios à enjeux élevés.

Le psychiatre Hamilton Morrin (King’s College London), qui a étudié les psychoses liées à l’IA, a salué l’introduction des contrôles parentaux tout en rappelant leurs limites. Il a estimé que ces outils peuvent diminuer le risque d’exposition ou de dépendance, mais doivent être intégrés à un ensemble plus large de garde-fous et de collaborations entre entreprises, cliniciens et personnes concernées par l’expérience vécue.

Ressources et aide

Si vous ou une personne de votre entourage êtes en danger ou pensez au suicide, des organisations peuvent offrir un soutien. Par exemple : https://findahelpline.com/i/iasp

Chercher de l’aide professionnelle et contacter des services d’urgence locaux sont des démarches essentielles en cas de risque imminent.

source:https://www.aljazeera.com/economy/2025/9/3/openai-announces-parental-controls-for-chatgpt-after-teens-suicide

You may also like

Leave a Comment