Home ActualitéLes dangers de l’IA sur les élections américaines de 2024

Les dangers de l’IA sur les élections américaines de 2024

by Sara
États-Unis

Les dangers de l’IA sur les élections américaines de 2024

Le phénomène « ChatGPT » et d’autres robots de chat basés sur des modèles d’intelligence artificielle se sont infiltrés dans tous les aspects de la vie quotidienne des utilisateurs, quel que soit leur parcours, plus rapidement que d’autres technologies modernes. En effet, « ChatGPT » a un taux de croissance d’utilisation plus rapide que celui de « Facebook » ou « Instagram ».

Malgré les nombreux avantages offerts par ces modèles d’intelligence artificielle, notamment « ChatGPT », ils comportent des risques qui menacent la paix et la sécurité publique des États. Cela peut se manifester par la diffusion de fausses rumeurs générées par le modèle lui-même ou par l’utilisation de ces technologies pour créer du contenu promouvant des informations erronées. À l’approche des élections présidentielles américaines de 2024, les craintes concernant les abus potentiels de cette technologie sont grandissantes.

Une inquiétude justifiée ?

Ces préoccupations ont-elles des fondements solides ou ne sont-elles que des exagérations par des personnes non expertes sur la technologie et son influence sur les opinions publiques ? Représentent-elles un véritable danger pour les élections présidentielles américaines ou pour tout processus électoral à travers le monde ?

Influence indirecte

Lorsqu’on évoque l’impact potentiel de « ChatGPT » et d’autres modèles de chat, il est facile de penser à une tentative directe d’influencer les opinions des électeurs. Cependant, cette influence n’est pas directe et ne provient pas nécessairement du robot lui-même.

Grâce à la capacité de « ChatGPT » à générer du contenu, qu’il soit textuel, audiovisuel ou sonore, imitant le style de communication locale dans divers pays, ce contenu devient plus crédible et proche de l’humain.

Cette capacité constituant le principal danger que représentent ces robots de chat, car elle élimine le besoin de personnes locales pour créer du contenu trompeur. De plus, la rapidité et l’abondance du contenu généré le rendent particulièrement adapté à une utilisation sur différentes plateformes en ligne, que ce soit sur des moteurs de recherche comme « Google » ou sur des réseaux sociaux tels que « Facebook » et « Instagram ».

L’utilisation par des acteurs externes

Des acteurs extérieurs ont déjà exploité les capacités de « ChatGPT » pour générer du contenu trompeur. Par exemple, un groupe iranien a utilisé cette technologie dans le cadre d’une opération appelée « Storm-2035 » pour produire du contenu trompeur ciblant les communautés latinos aux États-Unis afin d’influencer leurs voix lors des élections.

OpenAI a évoqué cette opération dans un communiqué, expliquant que « ChatGPT » produisait du contenu basé sur des informations erronées qui lui étaient fournies, et que ce contenu était ensuite affiné pour paraître plus humain avant d’être diffusé sur divers réseaux sociaux.

La personnalisation du contenu trompeur

Traditionnellement, le contenu trompeur s’adresse à un large public et il est difficile de l’adapter à des cultures spécifiques par des personnes extérieures à celle-ci. « ChatGPT » résout ce problème rapidement et efficacement.

Ce modèle peut transformer des informations trompeuses pour les rendre pertinentes pour des groupes spécifiques au sein de la population cible. L’opération « Storm-2035 » illustre bien cette approche, car elle a réussi à personnaliser des informations trompeuses pour convenir aux communautés latinos.

Outil de collecte de données et de ciblage d’annonces

En mars 2018, le scandale de Cambridge Analytica a mis en lumière comment la campagne de Donald Trump avait utilisé des données pour cibler des publicités de manière adaptée à des segments spécifiques de la population. Alors que la controverse portait sur la manière dont la société avait accédé à ces données, le fait même de disposer de ces données n’était pas en soi problématique.

Grâce à l’intelligence artificielle, qui peut analyser de nombreuses pages et comptes en ligne, il est désormais possible de fournir des données rapidement et efficacement.

Construire des robots de chat trompeurs

Les scénarios précédents, bien que préoccupants, se concentrent principalement sur l’utilisation des modèles d’IA pour générer du contenu trompeur. Cependant, une menace plus grave consiste à infiltrer les robots de chat existants pour leur fournir de fausses informations, qui seraient ensuite diffusées parmi leurs utilisateurs.

Bien que pirater « ChatGPT » ou « Gemini » soit difficile, des entités pourraient construire leurs propres robots de chat avant les élections, afin de diffuser des informations trompeuses sur les campagnes électorales.

Bien que ce scénario semble peu probable pour l’instant, une préparation adéquate et anticipée avant les élections pourrait le rendre plausible, représentant ainsi un risque plus important que la simple génération de contenu trompeur.

You may also like

Leave a Comment