Les réseaux sociaux jouent aujourd’hui un rôle central dans la formation de l’opinion publique, mais ils sont aussi des « machines à profit » où les algorithmes favorisent l’engagement plutôt que la qualité du débat, mettent en garde plusieurs travaux et chercheurs cités ci‑dessous.
3 % des comptes actifs et la domination des réseaux sociaux
Plusieurs études récentes montrent que la production de contenu sur les plateformes est très concentrée : seuls quelques pourcentages d’utilisateurs génèrent une part disproportionnée des publications. Selon Jay van Bavel, professeur de psychologie à l’université de New York, « Les réseaux sociaux amplifient les voix les plus fortes et les plus extrêmes, tout en étouffant les voix modérées, nuancées et d’un naturel ennuyeux ». Il ajoute également que « 90 % des opinions politiques de la population sont représentées par moins de 3 % des tweets en ligne ».
Avec ses collègues, Jay van Bavel a analysé des milliers de comptes et de messages pour répondre à une question simple : quelques individus ruinent‑ils Internet pour le reste ? Les résultats sont nets : seulement 3 % des comptes qualifiés de « toxiques » produisent 33 % de l’ensemble du contenu. Par ailleurs, 74 % de tous les conflits en ligne naissent dans 1 % des « communautés », et 0,1 % des utilisateurs diffusent 80 % des fausses nouvelles.
Une autre inégalité manifeste concerne l’activité politique : la grande majorité des utilisateurs reste passive, et seuls 10 % d’entre eux produisent environ 97 % des tweets à caractère politique. Ces déséquilibres expliquent en partie pourquoi les fils d’actualité donnent souvent une image déformée de la réalité sociale.
Biais de négativité et risque d’exode informationnel en France
Le fonctionnement des algorithmes, qui privilégient le clic et la réaction, entretient et amplifie un biais cognitif naturel : le biais de négativité. Comme le rappellent des psychologues évolutionnaires, l’attention portée aux informations négatives a des racines anciennes et pouvait être un avantage adaptatif dans des environnements hostiles. Sur les plateformes contemporaines, ce penchant se traduit par une surreprésentation des contenus polarisants et agressifs.
« Nous avons ainsi démontré que sur X/Twitter, la proportion de contenus toxiques dans les fils d’actualité est de 50 % supérieure à celle des productions des personnes auxquelles les utilisateurs s’abonnent ! Votre fil d’actualité vous tend en quelque sorte un miroir déformant de la réalité, qui va la rendre plus hostile et plus noire à vos yeux, et vous amener à réagir en conséquence », explique David Chavalarias, directeur de recherche au CNRS et auteur de Toxic Data (Flammarion, 2022).
Ce mécanisme crée un cercle vicieux : l’exposition prolongée à du contenu toxique favorise l’hostilité et la polarisation, puis incite une minorité encore plus active à produire davantage de publications virales. Chaque jour, les utilisateurs déroulent près de 90 mètres de fil d’actualité — soit quatre fois la hauteur de l’obélisque de la Concorde à Paris — et se forgent des impressions sur l’état du monde à partir de ce prisme déformé.
La conséquence sociétale inquiète les observateurs : certains évoquent un grand « exode informationnel » des Français. La fondation Jean‑Jaurès constatait que seulement 32 % des Français se déclaraient régulièrement actifs dans leurs pratiques informationnelles en 2024, soit une baisse de 7 points par rapport à 2022. La combinaison d’algorithmes favorisant l’engagement, de minorités toxiques très productives et d’un biais cognitif vers le négatif réduit l’attrait et la confiance dans les pratiques d’information.
Face à ces constats, les travaux cités insistent sur la nécessité de comprendre comment les algorithmes, les dynamiques de communauté et les comportements individuels interagissent pour produire des environnements informationnels déformés. Ils mettent en lumière que la fragilité du débat public numérique tient moins à la quantité d’informations disponibles qu’à la qualité, à la concentration des voix et aux mécanismes qui les amplifient.