Table of Contents
Les vidéos YouTube générées par IA, c’est vraiment fini ? Google vient d’annoncer un changement dans les règles de monétisation sur YouTube. Cette modification empêcherait certains contenus utilisant de l’IA de générer de l’argent. Pas d’argent, pas d’IA, cette solution magique de YouTube ignore pourtant le cœur du problème avec ce genre de vidéos.
Une nouvelle politique en vigueur dès juillet 2025
La nouvelle politique de YouTube entrera en vigueur le 15 juillet 2025, et pas qu’aux États-Unis, en France aussi. YouTube ne va pas purement et simplement démonétiser toutes les vidéos utilisant de l’IA. Ce que la plateforme a dans son collimateur, c’est ce qu’elle appelle le contenu répétitif, inauthentique et produit en masse.
Une vidéo IA inauthentique, c’est quoi ?
Vous êtes toutes et tous déjà tombés au moins une fois sur une vidéo ou un short YouTube avec une voix générique et robotique diffusée par-dessus des clips aléatoires récupérés ici et là. Une vidéo bas de gamme qui n’a aucune valeur ajoutée. En anglais, on parle d’AI slop. C’est ça que YouTube semble vouloir attaquer en insistant beaucoup sur la notion d’authenticité.
Youtube prétend, sur son site officiel, avoir « toujours exigé que le contenu monétisé soit original et authentique. » Dans une vidéo explicative, le responsable éditorial de YouTube, Rene Ritchie, affirme même qu’il s’agit ici d’une « mise à jour mineure des règles de longue date du Programme Partenaire YouTube, destinée à mieux repérer les contenus produits en masse ou répétitifs. »
YouTube minimise le problème de l’IA
YouTube semble vouloir minimiser la prolifération de contenus bas de gamme générés par IA sur sa plateforme. Une prolifération qui va de pair avec la monétisation, principale motivation derrière la production de ce genre de contenus. YouTube aurait donc tout intérêt à préciser ce qu’il considère comme étant du contenu inauthentique, produit en masse et répétitif.
Cette chaîne YouTube « Bloo » aux 2,6 millions d’abonnés correspond plutôt à cette définition. Sur cette chaîne, aucun humain n’est présent à l’écran. C’est un avatar virtuel maladroitement animé qui s’adresse au public avec une voix IA doublée en plusieurs langues. La chaîne spamme au moins une vidéo par jour, typiquement conçue pour des enfants et jeunes ados afin de les rendre accros.
Les vidéos IA ont plus qu’un problème d’authenticité
Le fait que YouTube fasse la distinction entre du contenu IA authentique et pas authentique a du sens. Certes, la notion d’authenticité reste floue, mais ne pas mettre tous les contenus créés ou augmentés par IA dans le même sac est une bonne chose. Personnellement, j’adore suivre une série intitulée « Presidents play Mass Effect » de la chaîne PrimeRadiancy.
Ces vidéos mettent en scène Barack Obama, Joe Biden et Donald Trump comme s’ils discutaient sur Discord tout en jouant aux jeux vidéo de la saga Mass Effect. Le script est humoristique et on sent qu’un humain est à l’écriture. Le gameplay est aussi réalisé par un humain. Au début de chaque vidéo, un disclaimer précise qu’il s’agit de voix IA. Ce genre de contenu peut être considéré comme authentique.
Quand l’IA sert à créer des mèmes racistes
Évidemment, YouTube ne va pas se poser la question de savoir si ce contenu est authentique ou non avant de le démonétiser. Le racisme et l’incitation à la haine ne sont pas autorisés sur la plateforme. Mais cela illustre à quel point la création de contenus purement IA est devenue accessible, y compris pour des usages nuisibles.
Laisser proliférer ce type de contenu et permettre à leurs créateurs d’en tirer profit pourrait, à terme, nuire à la réputation et à la valeur de la plateforme. Le calme apparent de YouTube et le manque de précision quant à la notion d’authenticité trahissent une volonté de frapper fort.