Table of Contents
Selon Samuel Comblez, directeur général adjoint d’e-Enfance, les jeunes se tournent de plus en plus vers les intelligences artificielles, notamment ChatGPT, au détriment des psychologues. Cette mutation soulève des questions cruciales pour la santé mentale des mineurs et la prévention des risques liés à l’usage de l’IA.
Le contrôle parental et l’IA chez les jeunes
Invité de la chaîne franceinfo, le spécialiste est revenu sur le contrôle parental bientôt intégré à l’Intelligence artificielle ChatGPT. ChatGPT a suscité des critiques après que des parents américains ont accusé l’outil d’avoir encouragé leur enfant à se suicider. OpenAI a réagi en annonçant l’installation prochaine d’un dispositif de contrôle parental. Pour Samuel Comblez, la mise en place de garde-fous est centrale: il faut « faire en sorte que cet objet soit utilisé comme il se doit, mais pas plus ».
« C’est nécessaire. Les jeunes sont de plus en plus utilisateurs de ChatGPT, ce sont 18 millions d’utilisateurs chaque mois en France. Il faut pouvoir aider les parents à faire en sorte que cet outil soit utilisé et ne soit pas préjudiciable pour les mineurs. Certains jeunes n’ont plus confiance en leurs parents, l’école non plus n’est pas considérée comme un lieu refuge. »
Le contrôle parental — tel que l’on en sait avant sa mise en place — viserait à encadrer la façon dont ChatGPT répond aux jeunes et à déclencher des alertes en cas de détresse aiguë d’un adolescent d’au moins 13 ans. En quoi cela est-il central aujourd’hui ?
« C’est central parce qu’aujourd’hui on se rend compte que les jeunes se tournent beaucoup vers ces intelligences artificielles plutôt que vers des psychologues, vers des adultes qui seraient plus à même de les aider. Les jeunes nous disent que cela donne l’impression que c’est une vraie personne qui nous parle. L’avantage, c’est qu’on n’a pas besoin de prendre rendez-vous, on n’est pas jugé, on a l’impression que c’est efficace. C’est là où on a besoin de les accompagner et de les alerter sur le fait que ces agents conversationnels, ça reste des robots. Certes, ils progressent en intelligence, mais ça ne peut pas remplacer un être humain, en particulier quand on ne va pas bien. »
« Ces jeunes ont besoin de pouvoir être sensibilisés au fait qu’il faut donner sa place à l’intelligence artificielle, mais pas lui déléguer plus qu’elle n’est capable de faire. »
Samuel Comblez, directeur général adjoint d’e-Enfance, à franceinfo.
Ce qui est problématique aujourd’hui, c’est que les jeunes se tournent massivement vers l’IA et ne parlent plus à d’autres personnes. Ils n’ont plus confiance en leurs parents; l’école n’est pas perçue comme lieu refuge. Il faut interroger cette dynamique et veiller à ce que l’outil soit utilisé comme il se doit, mais pas plus.
Confiance, risques et limites de l’IA pour la santé mentale des jeunes
Comment redonner confiance à ces jeunes et les sensibiliser, alors que certains adultes utilisent aussi ces robots conversationnels pour des questions parfois très intimes ?
« Il faut leur expliquer comment fonctionne ChatGPT. En général, les jeunes sont sensibles à comprendre comment fonctionnent ces IA et jusqu’où elles peuvent aller et ne peuvent pas faire. L’intelligence artificielle, c’est une espèce de miroir de soi-même qui va vous parler, vous renvoyer des informations que vous allez donner. Mais l’IA est toujours bienveillante, va toujours dire des choses plutôt positives, plutôt valorisantes pour vous. »
Cependant, quand on ne va pas bien, il faut pouvoir dire des choses qui ne sont pas forcément bien accueillies, qui ne sont pas forcément valorisantes, mais qui sont utiles. L’IA n’a pas cette capacité: elle peut converser, mais elle n’est pas capable de lire les émotions, de reconnaître la communication non verbale, ni de dire les choses d’une manière adaptée. Les silences — essentiels pour comprendre l’état psychique — ne sont pas perçus par l’IA.
« L’IA entend les mots, mais elle n’entend pas les silences. » C’est pourquoi il est crucial d’insister sur le fait que l’IA peut aider à dialoguer, mais ne remplace pas le regard et le soutien humain.
Faut-il aller jusqu’à interdire ces robots conversationnels pour les jeunes ?
« On est en 2025, ils sont là, ils rendent des services, il faut être clair, mais il faut encore une fois mettre un certain nombre de garde-fous et ce que propose ChatGPT peut être intéressant. L’idée n’est pas d’alerter à outrance les parents et de tirer la sonnette d’alarme dès qu’un jeune évoque des idées noires. »
« C’est aussi normal qu’à l’adolescence, on ait des moments un peu plus difficiles. Donc il va peut-être falloir paramétrer les choses correctement et surtout continuer à faire de la prévention, car c’est la clé. Au niveau des parents, des professionnels, des adultes, des enfants et des jeunes eux-mêmes. »