L’Union européenne a annoncé ce lundi l’ouverture d’une nouvelle enquête contre X, le réseau social d’Elon Musk, après que Grok, l’assistant d’intelligence artificielle de la plateforme, a généré des images dénudées de mineurs et de femmes. Cette procédure s’inscrit dans l’objectif de vérifier si X a enfreint les règles du Digital Services Act (DSA) et si le périmètre d’une enquête lancée en décembre 2023 peut être étendu. « L’Europe ne tolèrera pas les comportements insensés » des plateformes numériques, comme « les fausses images dénudées de femmes et d’enfants », a affirmé Ursula von der Leyen. « Notre position est claire : nous ne confierons pas le consentement et la protection de l’enfance à des plateformes technologiques pour qu’elles les violent et les monétisent », a assuré la cheffe de l’exécutif européen, ajoutant que « des mesures ont été prises, mais nous devons en faire plus protéger les citoyens, en ligne comme hors ligne ».
Bruxelles ouvre une enquête contre X et étend le cadre du DSA
La Commission européenne a annoncé l’ouverture d’une nouvelle enquête visant X, le réseau social d’Elon Musk, en raison des images dénudées générées par Grok, son assistant d’intelligence artificielle. Cette étape s’inscrit dans l’extension du périmètre d’une première enquête lancée en décembre 2023 contre X, dans le cadre du DSA, afin de vérifier si le réseau a enfreint les règles qui l’obligent à protéger les utilisateurs contre les contenus illégaux. Des procédures ont été lancées dans plusieurs pays; dans certains États, l’accès à X a été suspendu ou bloqué, et X a annoncé au début de l’année un bridage de Grok dans les pays où la création de telles images est illégale.

Cette procédure intervient en parallèle de l’extension du périmètre d’une première enquête lancée en décembre 2023 contre X, afin de s’assurer que Grok et les outils IA respectent les obligations de protection des usagers et de modération des contenus illégaux. Mi-janvier, X a signalé bridage de son outil dans les pays où la création de telles images est illégale et plusieurs États ont suspendu l’accès à Grok.
Chiffres et décryptages sur Grok et les mesures européennes
Selon une étude publiée par le Center for Countering Digital Hate (CCDH), Grok a généré quelque trois millions d’images sexualisées de femmes et d’enfants sur une période de 11 jours seulement, soit 190 images par minute en moyenne.

Parallèlement, AI Forensics a analysé plus de 20 000 images générées par Grok et montré que plus de la moitié représentaient des personnes légèrement vêtues, dont 81 % étaient des femmes et 2 % paraissaient mineures.
Face au tollé, les autorités européennes ont aussi élargi le cadre de l’enquête et, mi-janvier, X a mis en place un bridage de Grok dans les pays où la création de telles images est illégale, afin de limiter les usages abusifs de la technologie.
Ces développements illustrent les tensions entre régulation des technologies d’IA et liberté d’expression sur les plateformes, et pourraient influencer les orientations futures du DSA.