Home ActualitéJames Cameron prédit un danger nucléaire lié à l’IA

James Cameron prédit un danger nucléaire lié à l’IA

by Sara
France, USA

En pleine promotion de Ghosts of Hiroshima, un livre sur le bombardement atomique qu’il compte adapter au cinéma, le cinéaste James Cameron, 70 ans, a exprimé son inquiétude face aux risques liés à l’Intelligence Artificielle et à son association possible avec des systèmes d’armement, notamment nucléaires, lors d’un entretien accordé à Rolling Stone.

James Cameron met en garde sur l’Intelligence Artificielle et les armes nucléaires

Interrogé sur les usages militaires de l’Intelligence Artificielle, le réalisateur de Terminator a été particulièrement alarmiste. « Je pense qu’il y a encore un danger d’apocalypse à la Terminator si vous associez l’IA aux systèmes d’armement, jusqu’au niveau des systèmes d’armes nucléaires », a confié James Cameron. Il a ainsi souligné le risque lié au recours à des systèmes automatisés pour des décisions ou des actions d’une portée stratégique majeure.

Le réalisateur a pointé la rapidité des opérations militaires modernes, qui, selon lui, augmenterait la tentation d’automatiser des processus et, par conséquent, les risques d’erreur ou de déclenchement incontrôlé. Sur ce point, Cameron évoque la nécessité — ou du moins la conséquence — d’une « super-intelligence » capable de traiter correctement la vitesse et la complexité des informations militaires contemporaines.

Ces propos interviennent alors qu’il promeut Ghosts of Hiroshima, qui l’a amené à rappeler l’histoire et les dangers liés aux armes atomiques, et qu’il se prépare à porter ce sujet au cinéma. L’entretien avec Rolling Stone reflète une préoccupation qui associe à la fois des enjeux technologiques, stratégiques et éthiques, telle que formulée par le cinéaste.

Trois menaces existentielles selon James Cameron

James Cameron a résumé les principaux dangers auxquels, selon lui, l’humanité est confrontée en ce moment. « Le climat et la dégradation générale du monde naturel dont nous sommes coupables, les armes nucléaires, et la super-intelligence. » Cette énumération montre qu’il place l’Intelligence Artificielle au même niveau de gravité que des menaces déjà identifiées de longue date.

Sur la question du contrôle humain, il a admis une incertitude : « Peut-être serons-nous assez intelligents pour garder un humain dans la boucle. Mais les humains sont faillibles », a-t-il ajouté. Par ce constat, Cameron souligne la tension entre le désir de conserver une supervision humaine et la réalité des erreurs, des lenteurs ou des limites humaines face à des systèmes très rapides.

Le cinéaste rappelle par ailleurs que « de nombreuses erreurs humaines ont déjà failli déclencher des conflits nucléaires par le passé », insistant sur le fait que l’automatisation de ces mêmes systèmes pourrait multiplier ou complexifier des situations où l’erreur entraîne des conséquences catastrophiques. Ce point sert d’avertissement sur la fragilité des dispositifs actuels et sur les risques potentiels d’une automatisation accrue.

Bien qu’utilisant lui‑même l’IA dans son travail, James Cameron maintient donc une position prudente vis‑à‑vis de son intégration dans des domaines à haut risque. Il conclut sur une note plus anthropologique en observant que l’être humain possède un atout majeur : l’empathie. Selon lui, ce « super‑pouvoir » moral reste une ressource essentielle face aux défis cités, en particulier lorsqu’il s’agit de décisions portant sur la vie et la survie collectives.

source:https://www.20minutes.fr/arts-stars/people/4167915-20250816-james-cameron-pense-ia-pourrait-provoquer-apocalypse-nucleaire-digne-terminator?at_medium=display&at_campaign=149

You may also like

Leave a Comment