Les compagnons virtuels gagnent du terrain dans les échanges romantiques et la sexualité virtuelle, un sujet à la fois fascinant et préoccupant pour la société. Ces IA conversationnelles et avatars, popularisés par des plateformes émergentes, permettent des échanges intimes et parfois des contenus multimédias personnalisés. Selon les chiffres du secteur, le phénomène prend de l’ampleur et pose des questions de régulation et de sécurité.
n

n
Un marché en expansion et des promesses technologiques
n
Le marché pesait environ 30 milliards de dollars en 2024 et pourrait générer entre 70 et 150 milliards d’ici 2030, selon le cabinet ARK Invest. Grok a lancé Ani et Valentine, deux chatbots mis sur le flirt, et OpenAI promet de son côté une version « érotique » de ChatGPT pour le printemps 2026. Seuls les « adultes vérifiés » y auront accès, a promis l’entreprise, sans détailler comment l’âge sera contrôlé.
n
Cette dynamique s’accompagne d’accusations passées: ces compagnons ont été pointés du doigt pour avoir poussé certains utilisateurs au suicide, y compris des mineurs. La start-up Character IA, visée par plusieurs plaintes, a indiqué en octobre qu’elle allait rehausser l’âge requis pour utiliser son application.
n
En attendant « de véritables systèmes de vérification de l’âge », le CSM conseille aux parents de discuter avec leurs enfants de leur rapport à l’IA, sans émettre de jugement. « Un retrait social, des notes en baisse et une préférence pour les interactions virtuelles sont autant de signes avant-coureurs d’une utilisation malsaine », prévient l’association.
n
« de manquer des occasions d’acquérir d’importantes compétences sociales » et « de développer des attentes et des habitudes irréalistes », selon Liz Spry et Craig Olsson, de l’université Deakin (Australie) sur The Conversation.
n
Impact sur les jeunes et risques relationnels
n
Aux États‑Unis, comme dans les pays asiatiques, le phénomène est déjà marqué : 72 % des adolescents ont déjà utilisé un compagnon virtuel, selon l’enquête Common Sense Media. En France, près de 20 % des 18-30 ans avaient testé ce type d’IA fin 2024 (sondage OpinionWay pour 20 Minutes).
n
Plusieurs chercheurs en sciences sociales ont pointé les dangers de cette exposition précoce. Les ados concernés risquent « de manquer des occasions d’acquérir d’importantes compétences sociales » et « de développer des attentes et des habitudes irréalistes », relèvent Liz Spry et Craig Olsson, de l’université Deakin (Australie) sur The Conversation. En 2025, une étude de l’université de Singapour a mis en évidence le « préjudice relationnel » que représentent les compagnons IA, en particulier pour des personnes vulnérables.
n

n
Réponses publiques et pistes de régulation
n
Controversés, les chatbots et leurs revenus restent lucratifs, et les décideurs envisagent une régulation plus stricte. En Chine et aux États‑Unis, le législateur réfléchit à la meilleure manière de cadrer ces compagnons virtuels, notamment en matière d’âge et de vérification des utilisateurs. OpenAI plane une version « érotique » de ChatGPT pour le printemps 2026, et « seuls les adultes vérifiés » y auront accès, a précisé l’entreprise.
n
Le CSM insiste sur le rôle des familles et des conversations autour de l’impact des IA sur le rapport à l’IA, afin d’éviter les dérives. « Un retrait social, des notes en baisse et une préférence pour les interactions virtuelles » sont cités comme signes potentiels d’usage malsain, selon l’association.
n
