Table of Contents
Comment Elon Musk est utilisé dans les arnaques d’IA
Dans le cadre d’une nouvelle série de crimes d’escroquerie en ligne, l’intelligence artificielle est devenue un outil puissant pour les fraudeurs, entraînant une augmentation significative des fraudes financières. Parmi les cas les plus notables figure l’usurpation d’identité du milliardaire américain Elon Musk, ayant trompé des milliers de victimes à travers le monde, selon un rapport du New York Times.
Le rapport raconte l’histoire d’une victime, un homme retraité cherchant à investir ses économies. Il a visionné une vidéo d’Elon Musk discutant d’une opportunité d’investissement intrigante. En raison de sa confiance envers Musk, il a commencé par investir une petite somme de 248 dollars, mais au fil des semaines, il a épuisé ses économies de retraite, perdant finalement plus de 690 000 dollars dans une fraude systématique.
Techniques de manipulation
Les escrocs ont modifié cette vidéo, initialement issue d’une interview précédente de Musk, en remplaçant sa voix par une version synthétisée à l’aide de techniques d’intelligence artificielle. Ces technologies ont permis d’ajuster avec précision les mouvements des lèvres afin de les faire correspondre au nouveau script qu’ils ont écrit pour la version numérique falsifiée d’Elon Musk.
Avec l’évolution de plus d’applications de deepfake, il est désormais possible de créer de plus en plus d’images falsifiées d’apparence authentique.
La technologie des deepfakes
Cette technique, connue sous le nom de « deepfake », a connu une prolifération récente, avec des vidéos montrant des versions falsifiées d’Elon Musk visant à tromper les investisseurs. On estime que ces vidéos contribuent à des pertes de plusieurs milliards de dollars chaque année dues à des fraudes, selon les estimations de Deloitte, poussant ainsi la cybercriminalité à un niveau supérieur et créant une crise pour les forces de l’ordre.
Produire ces vidéos ne coûte que quelques dollars et peut être réalisé en quelques minutes. Elles sont également largement promues sur les réseaux sociaux par divers moyens, y compris des publicités payantes sur Facebook, ce qui amplifie leur portée, comme l’indique le rapport du New York Times.
Consequences financières
Francesco Cavalli, cofondateur et directeur de la cyber-intelligence chez Sensity – une entreprise qui surveille et détecte les deepfakes – a déclaré que « nous pourrions assister aux plus grandes escroqueries basées sur des deepfakes de tous les temps ». Les vidéos sont souvent si réalistes qu’elles capturent parfaitement le ton et le style de parole d’Elon Musk avec son accent sud-africain.
Les fraudeurs commencent par utiliser une vidéo authentique de Musk, puis manipulent les mouvements des lèvres à l’aide de techniques de synchronisation labiale. Ils ajoutent ensuite une voix générée par IA via des outils de clonage vocal, créant ainsi une illusion convaincante pour les utilisateurs d’internet.
Une prévalence inquiétante
Selon Sensity, qui a analysé plus de 2000 vidéos deepfake, Elon Musk est le visage le plus souvent utilisé dans ces vidéos. La société a estimé qu’il apparaît dans environ 25 % des vidéos falsifiées depuis la fin de l’année dernière. De plus, il est présent dans presque 90 % des vidéos ciblant les cryptomonnaies.
Mais Musk n’est pas le seul ciblé ; Warren Buffett et Jeff Bezos, le fondateur d’Amazon, apparaissent également dans ces vidéos, selon le New York Times.
L’ampleur de ces arnaques est colossale, avec des centaines de milliers de publicités liées à des vidéos falsifiées répertoriées dans la bibliothèque de publicités de Facebook. Le site YouTube est également inondé de ce type de contenu, qui utilise souvent une étiquette trompeuse comme « retransmission en direct », alors qu’il ne s’agit en réalité que de vidéos enregistrées et falsifiées.
Réponses des plateformes
YouTube a indiqué avoir supprimé plus de 15,7 millions de chaînes et 8,2 millions de vidéos entre janvier et mars de cette année, principalement pour violation de ses directives relatives au contenu trompeur.
Face à la prolifération des annonces trompeuses sur Facebook, Andrew Forrest, un milliardaire australien dont les vidéos ont été utilisées dans des publicités frauduleuses, a intenté un procès contre Meta pour négligence dans la gestion de ses activités publicitaires. Il a déclaré que ces publicités attaquaient les utilisateurs innocents en les incitant à participer à des investissements risqués, selon le New York Times.
Meta a déclaré qu’elle forme des systèmes de détection automatique pour identifier les fraudes sur Facebook, tout en reconnaissant la difficulté de cette tâche, les fraudeurs adaptant constamment leurs tactiques pour éviter d’être repérés.
Une menace en plein essor
Des rapports similaires circulent sur internet concernant des personnes ayant perdu des milliers de dollars à cause de telles arnaques, certains ayant même épuisé leurs économies. En mai dernier, la Securities and Futures Commission de Hong Kong a émis un avertissement concernant les arnaques liées aux vidéos montrant Elon Musk.
Au début de cette année, la Federal Trade Commission et le FBI ont mis en garde les citoyens américains contre l’augmentation des crimes cybernétiques liés à l’intelligence artificielle.
Dans un communiqué, le FBI a déclaré : « Les fraudeurs exploitent l’intelligence artificielle comme un multiplicateur de force pour augmenter l’efficacité de leurs cyberattaques et autres activités criminelles, rendant leur détection plus difficile. »
Le New York Times fait état de l’augmentation de ces opérations, mettant en avant les vidéos mettant en scène Elon Musk, particulièrement depuis l’an dernier, avec l’avancée des technologies d’intelligence artificielle disponibles pour tous, permettant à quiconque de cloner les voix des célébrités ou de modifier des vidéos avec une grande précision.
Impact et avenir
Les experts soulignent que les vidéos générées par intelligence artificielle ne sont pas toujours parfaites. Parfois, la voix de Musk sonne artificielle et ses mouvements de lèvres ne correspondent pas toujours à ses paroles. Néanmoins, elles peuvent paraître suffisamment convaincantes pour certaines cibles des arnaques, et la qualité des vidéos s’améliore avec le temps.
Selon Sensity, le coût de création de telles vidéos ne dépasse pas 10 dollars, et il est possible d’assembler des vidéos falsifiées grâce à plusieurs outils gratuits et bon marché en moins de dix minutes. Les fraudeurs ciblent souvent les utilisateurs d’internet âgés, qui peuvent avoir des connaissances sur les cryptomonnaies ou l’intelligence artificielle, mais qui ne sont pas forcément au fait des méthodes d’investissement les plus sûres.
Ce développement des technologies d’intelligence artificielle et du deepfake a révélé une nouvelle dimension inquiétante des arnaques en ligne. À mesure que les technologies évoluent, il est impératif que les méthodes de protection des individus contre ces tromperies s’adaptent également.