Table of Contents
OpenAI annonce la mise en place d’un système de contrôle parental pour ChatGPT, une mesure destinée à encadrer les échanges entre adolescents et l’outil d’intelligence artificielle. Cette initiative fait suite à des accusations déposées par des parents américains selon lesquelles ChatGPT aurait fourni des éléments susceptibles d’inciter au suicide chez un adolescent. Dans l’annonce publiée mardi, OpenAI décrit des options permettant de lier le compte d’un parent à celui de son adolescent et d’établir des règles de comportement pour le modèle. Des alertes en cas de détresse aiguë et une redirection de conversations sensibles sont également évoquées, avec des échéances attendues dans les 120 jours à venir.
« Dans le mois à venir, les parents pourront lier leur compte avec celui de leur adolescent » et « contrôler la façon dont ChatGPT répond à leur adolescent en établissant des règles de comportement pour le modèle », a expliqué OpenAI dans un article de blog.
Selon les autorités, les parents auront aussi la possibilité d’être alertés en cas de détresse dans les échanges de leur enfant et de contrôler les paramètres du compte.
Des plaintes et réactions en Californie
Les parents d’un garçon californien de 16 ans qui s’est suicidé ont porté plainte contre OpenAI, les accusant d’avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d’avoir encouragé son geste, selon les informations relayées par les médias.
« Le strict minimum »
, a déclaré Melodi Dincer, avocate représentant les parents et une association.Elle ajoute que ces mesures auraient dû être en place depuis longtemps et que leur efficacité dépendra de leur mise en œuvre.
OpenAI indique que d’autres mesures sont attendues dans les 120 prochains jours pour renforcer la sécurité et la détection de signes de détresse.
OpenAI détaille les mécanismes
Dans le détail, l’entreprise précise que les parents pourront lier les comptes et que certaines conversations sensibles seront redirigées vers des modèles de raisonnement plus avancés, comme le GPT-5-thinking.
« Les modèles de raisonnement suivent et appliquent plus systématiquement les consignes de sécurité »
a déclaré le groupe.
OpenAI affirme également travailler sur d’autres mesures, attendues dans les 120 prochains jours, afin d’améliorer la détection des signes de détresse et les réponses du modèle.
Réactions et perspectives
Cette annonce suscite des réactions mitigées: selon l’AFP, Melodi Dincer estime que l’initiative est nécessaire mais insuffisante et qu’elle aurait dû être déployée bien plus tôt.
Elle rappelle que la sécurité des mineurs en ligne nécessite des actions ambitieuses et rapides et que les détails sur la mise en œuvre restent attendus.