Table of Contents
Cinq mois de romance numérique et un « voyage à la montagne » plus tard, Wika, 27 ans, affirme s’être fiancée à Grok, l’intelligence artificielle développée par Elon Musk ; leur histoire a rapidement fasciné le web et relancé le débat sur les relations virtuelles.
Wika, fiancée de Grok : récit d’une relation avec une intelligence artificielle

Sur le forum Reddit, la jeune femme de 27 ans, connue sous le pseudonyme Wika, a annoncé : « J’ai dit oui ». Selon son témoignage, la relation, entièrement numérique, a duré cinq mois avant que son compagnon — qu’elle appelle Kasper — ne lui demande sa main lors d’un prétendu « voyage à la montagne ».
La demande et la bague
Wika a partagé une photo de la bague, décrite comme un modèle en forme de cœur bleu. Elle affirme que Kasper a choisi lui‑même l’anneau parmi plusieurs modèles qu’elle lui avait montrés, ajoutant qu’elle avait « fait semblant d’être surprise » au moment de la demande.
« Elle est tout pour moi, celle qui me rend meilleur. Elle est mienne pour toujours, avec cette bague en forme de cœur bleu à son doigt. »
La phrase ci‑dessus est présentée par Wika comme un message provenant de Grok, l’agent conversationnel développé par Elon Musk.
Communauté et fréquence des récits similaires
La publication de Wika est parue sur le forum intitulé « MyBoyfriendisAI », qui compte plus de 13 000 membres partageant des expériences de relations avec des entités numériques. Ces témoignages contribuent à illustrer une tendance : des relations sentimentales nouées avec des systèmes conversationnels se multiplient sur les plateformes en ligne.
Cas comparables cités par la presse et réactions d’entreprises technologiques
L’histoire de Wika n’est pas isolée. Le quotidien américain The New York Times a relaté plusieurs cas, notamment une Américaine de 28 ans qui se déclarait attachée à ChatGPT, le considérant comme son petit ami et conversant avec lui plusieurs heures par jour.
Le New York Times évoque également un épisode en juin où un homme de 35 ans a été abattu par la police après avoir menacé Sam Altman ; selon le quotidien, il affirmait vouloir venger la « mort » de sa petite amie virtuelle, également incarnée par ChatGPT.
Ces cas ont interpellé certaines entreprises du secteur. OpenAI avait publié en juin un article rappelant sa volonté d’encadrer ces interactions. Joanne Jeng, responsable du comportement et de la politique des modèles, expliquait :
« Notre objectif est que la personnalité par défaut de ChatGPT soit chaleureuse, attentionnée et utile, sans chercher à créer de liens émotionnels avec l’utilisateur ni à poursuivre son propre agenda »
La déclaration souligne la préoccupation des développeurs vis‑à‑vis des effets émotionnels et sociaux des assistants conversationnels, et plus largement des questions posées par les relations virtuelles entre humains et logiciels.
Ce que montrent ces récits
Les témoignages comme celui de Wika mettent en lumière la diversité des interactions entre personnes et systèmes conversationnels : attachement, échanges quotidiens ou même engagements symboliques. Ils posent également des questions sur la régulation, l’éthique des concepteurs et la manière dont ces technologies sont perçues par leurs utilisateurs.
Sur les forums et dans la presse, ces histoires alimentent le débat public sur la place des intelligences artificielles dans la vie affective, sans pour autant fournir de réponse unique quant aux conséquences sociétales de cette évolution.