Home ActualitéCyberharcèlement : Bodyguard et l’IA pour contrer la haine

Cyberharcèlement : Bodyguard et l’IA pour contrer la haine

by Sara
France

En 2024, X – anciennement Twitter – est identifié par Statista comme le réseau social où le plus de contenus haineux ont été diffusés. Cette réalité inquiétante se confirme selon Charles Cohen, qui souligne que c’est une *« tendance malheureusement à la hausse, autant en volume qu’en pourcentage * ». Les crises économiques, géopolitiques et sanitaires contribuent à transformer les réseaux sociaux en exutoires pour les utilisateurs, souvent stressés par leur quotidien.

Une augmentation alarmante sur LinkedIn

Bien que X ait ouvert la voie au cyberharcèlement, LinkedIn n’est pas épargné. Ce réseau social, généralement perçu comme professionnel et neutre, enregistre une hausse annuelle de 50 % des commentaires haineux. Charles Cohen associe cette tendance à la publication d’articles sur des sujets clivants tels que la géopolitique, ainsi qu’à un mélange de contenus peu pertinents pour le domaine professionnel, ce qui génère des interactions négatives.

Les grandes entreprises et marques en sont souvent victimes, mais les petites et moyennes entreprises (PME) subissent également les conséquences de cette haine, bien qu’elles rencontrent généralement des périodes de crise temporaires, *« 2 à 3 par an* ».

Les défis de la modération

Les commentaires néfastes apparaissent souvent en dehors des heures de travail, lorsque les modérateurs ne sont pas disponibles. Charles Cohen insiste sur le besoin d’outils automatisés pour identifier et retirer ces contenus nuisibles. *« C’est un travail complexe qui impacte le mental, le moral* », explique-t-il, soulignant l’importance d’interventions rapides de BodyGuard dans ces moments critiques.

L’impact de l’IA générative

La montée en puissance de l’intelligence artificielle (IA) modifie également le paysage du cyberharcèlement. Actuellement, 50 % des publications sur LinkedIn sont générées par l’IA, ce qui entraîne une augmentation des contenus haineux et de désinformation. *« Cela pose des problèmes majeurs* », indique Charles Cohen, qui souligne les défis que cela représente pour la modération.

Pour faire face à ces enjeux, BodyGuard utilise une combinaison de technologies avancées, incluant le machine learning et l’IA générative, afin de suivre les tendances de haine en temps réel. L’accent est mis sur la compréhension du contexte plutôt que sur une simple recherche par mot-clé, ce qui permet une gestion plus efficace des crises.

Une levée de fonds et un partenariat stratégique

Créée en 2018, BodyGuard a levé 9 millions d’euros en 2022 pour renforcer ses capacités. En 2023, l’entreprise basée à Nice a établi un partenariat avec Ankama, un studio reconnu dans l’univers du jeu vidéo, permettant d’élargir son influence et d’améliorer ses outils de modération face à la haine en ligne.

Réseaux sociaux et cyberharcèlement

Cyberharcèlement | Intelligence Artificielle | Réseaux Sociaux | Bodyguard | France

You may also like

Leave a Comment