Table of Contents
L’Australie a bloqué l’accès à plusieurs sites dits « nudify » qui utilisaient l’intelligence artificielle pour créer des images à caractère sexuel impliquant des enfants, a annoncé le régulateur national de l’internet. Ces plateformes, qui permettent de générer des deepfakes nus à partir de photos de personnes réelles, ont été retirées du marché australien après un avertissement officiel, selon Julie Inman Grant, commissaire à la sécurité en ligne (eSafety Commissioner).
Retrait des sites et portée du phénomène
Le bureau de la commissaire a indiqué que ces sites enregistraient environ 100 000 visites par mois depuis l’Australie. Ils ont été impliqués dans plusieurs affaires médiatisées où des images à caractère sexuel générées par l’IA visaient des élèves d’établissements scolaires australiens.
Face à cette situation, les exploitants ont cessé d’offrir leurs services sur le territoire australien après l’intervention des autorités. Cette réaction s’inscrit dans une volonté de stopper la circulation de contenus exploitant des mineurs et de réduire les risques d’abus en ligne.
Effets sur les écoles et témoignages
Julie Inman Grant a décrit l’impact de ces services comme « dévastateur » pour les écoles australiennes. Les outils « nudify » permettaient de rendre des images de personnes réelles apparemment nues, sans consentement, et ont alimenté des cas d’exploitation et de harcèlement parmi des mineurs.
Selon le régulateur, certaines fonctionnalités promues par les sites comprenaient la possibilité « d’ôter les vêtements de n’importe quelle fille », des options pour générer des images de type « schoolgirl » et un mode dit « sex mode ». Ces éléments ont été considérés comme des manquements graves aux obligations de prévention des abus.
Actions légales et avertissements officiels
Les autorités australiennes ont émis un avertissement formel en septembre à l’encontre de la société basée au Royaume-Uni qui exploitait ces services. Elles ont menacé de sanctions civiles pouvant atteindre 49,5 millions de dollars australiens (environ 32,2 millions de dollars américains) si des garde-fous adéquats n’étaient pas mis en place.
Cette mise en demeure visait à obtenir des mesures concrètes pour empêcher que les plateformes ne servent à créer du matériel d’exploitation sexuelle d’enfants. La pression réglementaire a conduit au retrait des services depuis l’Australie.
Rôle des hébergeurs et adaptation des plateformes
Parallèlement, la plateforme d’hébergement et de partage de modèles d’IA Hugging Face a pris des mesures pour se conformer au droit australien. Elle a notamment modifié ses conditions d’utilisation afin d’exiger que les titulaires de comptes prennent des mesures pour minimiser les risques d’utilisation abusive de leurs modèles.
Ces changements montrent que les hébergeurs et marchés de modèles d’IA sont désormais visés par les obligations visant à prévenir la création et la diffusion de deepfakes sexuels non consensuels, en particulier lorsqu’ils impliquent des mineurs.
Contexte réglementaire et inquiétudes croissantes
L’Australie s’affirme en première ligne des efforts mondiaux pour protéger les enfants en ligne. Parmi les mesures adoptées figurent l’interdiction des réseaux sociaux pour les moins de 16 ans et une répression des applications utilisées pour le traque et la création d’images truquées.
La prolifération rapide d’outils capables de générer des images photoréalistes a accru les inquiétudes, car ils facilitent la production d’images sexuellement explicites sans consentement et rendent plus difficile la détection et la prévention des abus.
Données et enquêtes sur les deepfakes sexuels
Une enquête menée l’an dernier par le groupe de défense américain Thorn souligne l’ampleur du phénomène chez les jeunes. Parmi les répondants âgés de 13 à 20 ans :
- 10 % ont déclaré connaître quelqu’un chez qui des images deepfake nues avaient été créées,
- 6 % ont indiqué avoir été eux-mêmes victimes directes d’un tel abus.
Ces chiffres soulignent la nécessité d’actions préventives et d’une meilleure sensibilisation pour lutter contre les deepfakes d’enfants.
Mesures recommandées et perspectives
Les autorités insistent sur la mise en place de garde-fous techniques et juridiques par les fournisseurs de technologies d’IA. La combinaison d’actions réglementaires, de modifications des conditions d’hébergement et d’initiatives éducatives est présentée comme essentielle pour réduire les risques.
Pour les écoles, les familles et les plateformes, la priorité demeure la protection des mineurs et la prévention de la diffusion de contenus sexuels non consensuels créés par des outils automatisés.