Table of Contents
Depuis l’essor des dot.com, l’« Intelligence Artificielle » promet une révolution comparable ; pourtant, derrière cette promesse se profilent des risques concrets : aggravation du chaos informationnel et renforcement du pouvoir des élites, selon l’argument développé ci‑dessous.
Intelligence Artificielle : promesses historiques et limites pratiques
Le parallèle avec la bulle des dot.com à la fin des années 1990 est central à l’argumentation. À l’orée du XXIe siècle, des entreprises sans profits ni modèle économique voyaient leur valeur s’envoler en Bourse. L’idée dominante était que « l’information » — rendue accessible par Internet — remplacerait les ressources matérielles comme moteur principal du progrès.
Le texte rappelle une comparaison frappante entre Manhattan et le Mozambique : malgré des richesses naturelles et une population plus importante, le Mozambique n’a pas vu son PIB rattraper celui de Manhattan. Manhattan « n’a ni champs luxuriants, ni rivages immaculés, ni mines en activité… et seulement 1,6 million d’habitants. Pourtant, son PIB avoisinait les 1 000 milliards de dollars, contre à peine 22 milliards pour le Mozambique. » Ces montants convertis donnent, approximativement, environ 920 milliards € pour Manhattan et environ 20,24 milliards € pour le Mozambique.
Les promoteurs d’Internet affirmaient que l’accès aux données suffirait à transformer des économies, mais, un quart de siècle plus tard, le constat est nuancé : l’accès généralisé n’a pas éliminé les inégalités économiques. Internet, loin d’être un simple instrument d’émancipation, est aujourd’hui « envahi de mensonges, de distorsions, de pertes de temps » et de contenus variés allant de la pseudo‑science aux divertissements futiles.
Face à ce débordement d’informations, les acteurs de l’Intelligence Artificielle se présentent comme la solution : trier, synthétiser, recommander. Mais l’analyse invite à la prudence. L’outil peut fournir des réponses « intelligentes — mais confuses » et produire massivement des contenus, vrais ou faux, utiles ou futiles. L’exemple évoqué illustre la création d’images ou de vidéos plausibles — Donald Trump au volant d’une voiturette de golf se précipitant vers une falaise, ou des réécritures fictionnelles de l’Histoire — capables d’induire en erreur.
Le texte insiste : « l’IA ne résoudra pas le ‘problème de l’information’, elle l’aggravera. » Dans ce cadre, l’outil devient aussi un instrument politique : maintenir une partie des citoyens dans la confusion peut servir à préserver des intérêts établis, alors même que les inégalités économiques se creusent. L’auteur détaille des tendances structurelles : protection sociale mise à mal, économies comprimées par réglementations et inflation, dette publique croissante. Il mentionne une projection citée dans le texte : la dette américaine pourrait atteindre 150 000 milliards de dollars d’ici le milieu du siècle — soit, approximativement, 138 000 milliards € — un chiffre que l’auteur juge insoutenable et susceptible d’entraîner une crise.
Exemple concret : une vidéo manipulée liée à la prison d’Evin (23 juin 2025)
Le texte reprend un exemple rapporté par CarnegieEndowment.org et le dispositif WITNESS pour illustrer l’usage d’outils de génération de contenu dans des opérations de communication ou de propagande.
« IA : le nouveau visage de la propagande »
Le 23 juin 2025, WITNESS a reçu une vidéo WhatsApp montrant des nuages de fumée s’élevant de la prison d’Evin, à Tajrish, en Iran. Filmée depuis un appartement voisin, elle portait un message sans équivoque : ‘Ils essaient d’ouvrir Evin.’ Cette prison tristement célèbre pour ses tortures, ses assassinats et l’incarcération de dissidents, de journalistes et de militants venait d’être bombardée.
Les responsables israéliens ont parlé d’une frappe ‘symbolique’, un geste contre la répression de la République islamique. Pour de nombreux Iraniens, voir les portes d’Evin détruites représentait un puissant symbole d’espoir : la liberté, enfin, pour les meilleurs et les plus brillants, enfermés depuis si longtemps derrière ses murs.
Sur les réseaux sociaux, Israël a tenté de tirer parti de l’événement. Son ministre des Affaires étrangères a diffusé une autre vidéo, montrant les portes d’Evin soufflées par une frappe chirurgicale. Et il s’est exclamé sur X (anciennement Twitter) : ‘¡Viva la libertad, carajo !’ (‘Vive la liberté, bon sang !’).
Mais contrairement à la première séquence, celle-ci était probablement fausse.
L’analyse médico‑légale a montré qu’elle intégrait des images fixes des portes d’Evin issues d’un article publié en 2021, sans doute manipulées par IA. Ces conclusions ont été confirmées par la Deepfakes Rapid Response Force, un dispositif international géré par WITNESS pour identifier rapidement les contenus trompeurs générés par IA. »
Ce cas souligne la capacité des technologies de génération de contenus à produire des séquences convaincantes et à orienter les perceptions publiques, volontairement ou non.
Conséquences observables et enjeux pour l’opinion publique
Le propos central est factuel et normatif : la diffusion massive de contenus générés et amplifiés par des systèmes automatisés modifie le paysage informationnel. Le risque identifié est triple : prolifération de fausses informations, difficulté de vérification rapide, et instrumentalisation par des acteurs politiques ou économiques.
L’auteur invite le lecteur à expérimenter : interroger des modèles grand public (ChatGPT, Grok 3 de Musk) sur des thèmes politiques ou économiques produit des réponses parfois confuses et peu fiables. En conséquence, la confiance dans les sources et la capacité des citoyens à distinguer le vrai du faux peuvent être fragilisées.
Enfin, le texte comporte une note biographique sur l’auteur d’origine : Bill Bonner, co‑auteur de plusieurs ouvrages et fondateur d’Agora, présenté comme éditorialiste et auteur de publications économiques. Ces éléments situent l’angle et la perspective depuis lesquels l’analyse est proposée.