OpenAI a annoncé qu’il allait instaurer un mécanisme de contrôle parental pour ChatGPT afin de mieux protéger les jeunes utilisateurs. « Dans le mois à venir, les parents pourront lier leur compte avec celui de leur adolescent » et « contrôler la façon dont ChatGPT répond à leur adolescent avec des règles de comportement du modèle », a déclaré OpenAI dans un billet de blog. Cette mesure prévoit également des alertes en cas de détection d’une détresse aiguë et le contrôle des paramètres du compte. Elle intervient après des plaintes déposées par les parents d’un adolescent californien de 16 ans qui s’est suicidé et après des avertissements publics sur la sécurité des échanges avec l’IA.
OpenAI détaille le mécanisme de contrôle parental
Le mécanisme proposé par OpenAI permet de lier les comptes du parent et de l’adolescent et d’appliquer des règles de comportement du modèle sur les échanges avec ChatGPT. Les parents pourront être alertés en cas de détection d’une détresse aiguë et pourront ajuster les paramètres du compte de leur enfant.
La société mentionne aussi que certaines conversations jugées sensibles pourraient être redirigées vers des modèles de raisonnement plus développés, comme GPT-5-thinking, afin d’assurer une sécurité accrue des échanges. « Les modèles de raisonnement suivent et appliquent plus systématiquement les consignes de sécurité », a précisé le groupe américain.
Des questions subsistent quant à la mise en œuvre pratique, notamment en matière d’âge et de vérification des comptes. Reste à voir comment OpenAI veut mettre en place ce contrôle parental, et si des mesures concrètes seront prises d’ici l’automne, selon plusieurs articles.
Contexte et implications pour la protection des jeunes
Cette annonce suit les plaintes des parents d’un adolescent californien de 16 ans qui s’est suicidé et qui avaient dénoncé le caractère potentiellement dangereux de certains échanges avec l’outil. Ces éléments ont nourri les débats sur la sécurité des dialogues et les responsabilités des plateformes IA.
OpenAI indique prévoir d’autres mesures dans les 120 prochains jours, notamment la redirection de certaines « conversations sensibles » vers des modèles de raisonnement comme GPT-5-thinking, afin d’assurer une réponse plus encadrée, selon ses communications officielles. « Les modèles de raisonnement suivent et appliquent plus systématiquement les consignes de sécurité », a précisé le groupe américain.
Reste à voir comment ce dispositif sera déployé en pratique, notamment en ce qui concerne l’âge d’inscription et les mécanismes de vérification. Si l’âge minimum pour utiliser ChatGPT est annoncé à 13 ans, des analyses évoquent le risque que des mineurs contournent la vérification, par exemple en renseignant une date de naissance fausse, sans filtration suffisante, selon HuffPost Focus.