Table of Contents
Ce qu'il faut savoir sur le Sommet de Sécurité IA au Royaume-Uni
Le Royaume-Uni organise son premier sommet sur l'intelligence artificielle, réunissant des chefs d'État et des géants de la technologie dans un lieu emblématique près de Londres. Le sommet de deux jours commence mercredi alors que les inquiétudes grandissent quant aux dangers potentiels que la technologie émergente peut représenter pour l'humanité. La réunion se concentrera sur la stratégie d'un effort mondial et coordonné visant à faire face aux risques et aux abus des outils d'IA.
Où et quand a lieu le sommet ?
Le sommet aura lieu mercredi et jeudi. Il se tiendra à Bletchley Park dans le Buckinghamshire, où les meilleurs codeurs britanniques ont déchiffré le code Enigma de l'Allemagne nazie pendant la Seconde Guerre mondiale. Le groupe, qui comprenait le pionnier de l'informatique Alan Turing, a utilisé le premier ordinateur à programmation numérique au monde. Bletchley Park abrite la plus grande collection d'ordinateurs historiques en état de fonctionnement au monde, au Musée national de l'informatique. Aujourd'hui, le Royaume-Uni abrite deux fois plus d'entreprises d'IA que tout autre pays européen. Le secteur de l'IA emploie plus de 50 000 personnes et injecte 3,7 milliards de livres sterling (4,5 milliards de dollars) dans l'économie chaque année. En juin, Londres est également devenue le siège social d'OpenAI, le développeur de Chat GPT, en dehors des États-Unis.
De quoi parle le sommet ?
Le sommet est axé sur l'«IA de pointe», définie comme des «modèles fondamentaux très performants susceptibles de posséder des capacités dangereuses suffisantes pour représenter des risques graves pour la sécurité publique», selon OpenAI. Bien que Sunak ait répété les avantages potentiels de l'IA ces dernières semaines, il a déclaré que les dangers encore inconnus de cet outil nécessitent également une planification et des réglementations permettant un développement plus sûr de la technologie. Le sommet vise à «travailler vers une compréhension partagée des risques» et à coordonner un effort mondial pour les minimiser, selon le site web du gouvernement britannique.
Que contient l'ordre du jour ?
L'ordre du jour comprend l'utilisation possible de systèmes d'IA par des terroristes pour fabriquer des armes biologiques et le potentiel de la technologie à surpasser les humains et à semer le chaos dans le monde. Selon un programme publié par le gouvernement britannique, l'ordre du jour du premier jour comprend des discussions sur les risques de l'IA de pointe pour la sécurité mondiale et la société, ainsi que sur la menace de perdre le contrôle de la technologie. Le deuxième jour, les délégués aborderont les questions concernant la manière dont ces risques peuvent être atténués et comment l'IA peut être développée de manière plus responsable. Les discussions porteront sur les rôles que peuvent jouer différents groupes, de la communauté scientifique aux décideurs politiques nationaux, dans cet effort conjoint.
Qui participe ?
Environ 100 personnes y assisteront, mais la liste complète des invités n'a pas été rendue publique, selon l'agence de presse Reuters. Les participants incluront des chefs d'État, des grandes entreprises d'IA, des groupes de la société civile et des experts en recherche. Parmi les personnalités notables connues pour y assister figurent : la vice-présidente américaine Kamala Harris, le vice-ministre chinois de la technologie Wu Zhaohui, le PDG de X (anciennement Twitter) Elon Musk, la présidente de la Commission européenne Ursula von der Leyen, le secrétaire général des Nations unies Antonio Guterres, le Premier ministre italien Giorgia Meloni (unique leader du G7 à y assister), le PDG d'OpenAI Sam Altman, ainsi que des cadres d'autres entreprises d'IA, dont Meta, Anthropic et DeepMind basée au Royaume-Uni de Google. Musk et Sunak clôtureront le sommet par une discussion qui sera diffusée en direct sur X.
Quelles sont les principales préoccupations concernant l'IA ?
Certains ont critiqué le sommet de Sunak en le qualifiant de préoccupé par des «dangers lointains» et en se concentrant sur des enjeux limités. Des experts ont déclaré lors d'une table ronde de Chatham House la semaine dernière que des problèmes plus larges liés aux biais algorithmiques et à leurs impacts disproportionnés sur les communautés marginalisées doivent également être explorés. Une étude du Pew Research Center a révélé une «inquiétude croissante» parmi les Américains quant au rôle de l'IA dans la vie quotidienne, y compris des doutes sur le fait qu'elle améliorerait réellement cette vie et une hésitation quant à son utilisation dans les soins de santé. L'IA peut également propager la désinformation et entraîner des pertes d'emplois et une instabilité politique.
Qui d'autre agit en matière de risques liés à l'IA ?
Le 10 octobre, l'autorité britannique de protection des données a déclaré avoir adressé un avis à Snapchat pour avoir peut-être omis d'évaluer correctement les risques de confidentialité de son chatbot d'IA générative pour les utilisateurs, en particulier les enfants. Aux États-Unis, le président Joe Biden a signé un décret le lundi pour encadrer le développement de l'IA. L'Union européenne se prépare à adopter une loi sur l'IA, tandis que les pays du G7 ont convenu d'introduire un code de conduite pour les entreprises utilisant cette technologie. Alors que les pays travaillent à l'élaboration de leurs propres règles, l'ONU milite également en faveur d'un effort mondial de collaboration. Le 26 octobre, Guterres a annoncé la création d'un organe consultatif chargé de traiter de la gouvernance internationale de l'IA avec des dirigeants de la technologie, des responsables gouvernementaux et des universitaires.
Source: Al Jazeera et agences de presse