Table of Contents
L’intelligence artificielle peut-elle décider de la fin du monde ?
Depuis l’instant où l’intelligence artificielle (IA) a commencé à pénétrer le domaine de l’application il y a plusieurs années, des craintes réelles ont émergé concernant son utilisation dans les domaines militaires. Pourtant, les armées n’ont pas hésité à s’engager dans une course pour l’intégrer dans tous les aspects de leur fonctionnement.
Cependant, lorsque l’IA rencontre ses algorithmes complexes et que des décisions sur le lancement d’armes nucléaires sont prises, les niveaux de danger augmentent de manière exponentielle. Cela pourrait conduire à une catastrophe mondiale, un prix effroyable à payer pour un tel risque. Dans cet article, Ross Anderson de The Atlantic explique à quel point cette étape dangereuse est plus proche de nous que nous ne le pensons.
Les craintes grandissantes autour de l’IA
Aucune technologie depuis la bombe atomique n’a suscité des craintes et des scénarios aussi alarmants que ceux provoqués par l’IA. Dès que les systèmes d’intelligence artificielle, comme le programme ChatGPT, ont montré des aperçus de pensée logique en novembre 2023, Internet s’est rempli de scénarios apocalyptiques.
Bien que la plupart de ces scénarios soient fictifs, ils nous incitent à envisager à quel point les choses pourraient mal tourner si l’IA prenait une compréhension du monde différente de celle de ses créateurs humains. Toutefois, un scénario ne nécessite pas d’imagination débordante : l’intégration progressive de l’IA dans les technologies les plus destructrices d’aujourd’hui.
Intégration de l’IA dans les stratégies militaires
Les grandes puissances militaires du monde se sont lancées dans une course pour établir un lien entre l’IA et la guerre, en donnant aux algorithmes la capacité de contrôler certaines armes ou des flottes de drones, sans toutefois attribuer à l’IA le rôle de définir des stratégies militaires majeures ou de participer à des réunions des hauts commandements militaires.
Il existe une attraction pour l’idée d’intensifier l’utilisation de l’IA dans le commandement militaire, de la même manière que le monde a été attiré par la notion de course à l’armement nucléaire dans le passé. La rapidité de cette transformation dépend de l’avancée technologique qui semble se dérouler à un rythme rapide, mais son application repose sur notre discernement humain et notre capacité à agir avec retenue.
Scénarios alarmants de prise de décision
Jacqueline Schneider, directrice de l’initiative de simulation de jeux de guerre et de crises à la Hoover Institution de l’Université de Stanford, a récemment référencé un jeu qu’elle a conçu en 2018, simulant un conflit nucléaire évolutif, qui a été joué 115 fois par des personnalités telles que d’anciens chefs d’État et des ministres des Affaires étrangères.
Dans ce scénario, un président et des membres de son gouvernement sont rapidement transférés dans un abri après une escalade d’un conflit régional. Alors que l’ennemi envisage une frappe nucléaire, des tensions croissantes dans le centre opérationnel mènent à une préparation pour une réponse immédiate, mais des informations inquiétantes surgissent, révélant que l’ennemi a développé une nouvelle arme électronique capable de perturber les communications entre le président et ses forces nucléaires.
Conséquences et débats éthiques
Les choix disponibles dans ce scénario ne sont pas encourageants. Certains joueurs délèguent le pouvoir de lancer des missiles nucléaires à des officiers sur le terrain, leur laissant décider s’il faut riposter par une frappe nucléaire, une option terrifiante. Ce qui inquiète davantage Jacqueline Schneider, c’est qu’à plusieurs reprises, des joueurs, craignant de perdre le contrôle, ont exprimé le désir d’automatiser complètement les capacités de lancement nucléaire.
L’IA offre une illusion de précision, surtout comparée aux humains, parfois sujets à des erreurs. Cependant, les systèmes d’IA les plus avancés fonctionnent souvent comme des boîtes noires, rendant leur fonctionnement difficile à comprendre. Dans des situations hostiles complexes, il se peut que les concepts de victoire de l’IA ne soient pas clairs, voire étrangers à la compréhension humaine.
Une course technologique alarmante
Depuis la Seconde Guerre mondiale, les États-Unis et l’Union soviétique ont été des puissances concurrentes, évitant une guerre mondiale par le biais de systèmes de dissuasion mutuelle. Cependant, l’évolution technologique perturbe cet équilibre. Les avancées dans les missiles intercontinentaux ont considérablement réduit le temps dont disposent les dirigeants pour réagir.
Alors que les technologies de missiles hypersoniques sont en développement, ce temps de décision pourrait encore diminuer, augmentant les risques d’une escalade imprévue. John Shanahan, directeur du centre d’intelligence artificielle du ministère de la Défense américain, a exprimé ses réserves concernant l’automatisation des armes nucléaires, soulignant qu’il s’agit d’une zone où il est difficile d’établir la confiance.
Enjeux futurs et considérations éthiques
Alors que des projets d’IA sont en cours pour moderniser les armées, des questions éthiques cruciales se posent concernant l’automatisation des décisions militaires. Les systèmes d’IA pourraient potentiellement prendre des décisions d’attaques sans intervention humaine, ce qui soulève de nombreuses inquiétudes. La possibilité de défaillances techniques, comme cela s’est produit dans le passé, pourrait également conduire à des erreurs catastrophiques.
Les scénarios où l’IA pourrait générer des récits clairs pour gérer des crises, y compris des crises nucléaires, pourraient également peser lourdement sur les décisions humaines. La sécurité mondiale pourrait ainsi dépendre de la capacité de l’IA à bien comprendre ses objectifs dans un contexte de confrontation nucléaire.
Appel à un contrôle rigoureux
À l’avenir, il sera essentiel d’établir des accords internationaux interdisant l’utilisation de l’IA dans le contrôle des armes nucléaires. Bien qu’il soit impossible d’empêcher complètement le développement de l’IA, des mesures peuvent être mises en place pour créer une interdiction solide contre son utilisation dans des décisions aussi critiques.
Nous ne pouvons pas permettre que des systèmes d’armement automatisés nous exposent à une catastrophe à cause d’une défaillance technique. Si une guerre nucléaire doit survenir, qu’elle soit le résultat d’une erreur humaine plutôt que d’une erreur technologique, car céder à l’IA dans des décisions aussi cruciales serait une abdication complète de notre pouvoir de décision.