Table of Contents
OpenAI, pionnier de l’intelligence artificielle, met en avant une nouvelle stratégie de prévention face aux risques biologiques liés à ses technologies. L’entreprise s’engage à encadrer l’utilisation de ses modèles afin d’éviter des applications nuisibles, notamment la création d’agents pathogènes.
Encadrer les usages sensibles de l’intelligence artificielle
Consciente des avancées médicales possibles mais aussi des menaces que cela engendre, OpenAI établit des lignes directrices. L’objectif est de promouvoir des applications positives, telles que le développement de nouvelles thérapies, tout en mettant en place des garde-fous pour éviter les dérives, notamment l’utilisation de l’IA dans la conception d’armes biologiques.
Anticiper les dérives de l’intelligence artificielle
Dans un billet de blog daté du 19 juin, OpenAI a reconnu que ses modèles présentent des risques dans le domaine de la biologie. Pour contrer ces menaces, un plan de réduction des risques est mis en œuvre. Il repose sur une évaluation progressive avant chaque déploiement, en collaboration avec des experts et des autorités publiques.
Des partenariats sont établis avec des biologistes pour créer des bases de données adaptées aux usages qualifiés de « à double tranchant ». L’objectif est d’éviter que l’IA ne génère des contenus sensibles, comme des protocoles expérimentaux pouvant être exploités par des personnes non qualifiées dans des domaines critiques tels que la génétique ou l’immunologie.
Détection en temps réel et équipes spécialisées
OpenAI a mis en place un système de détection en temps réel pour identifier et bloquer les requêtes potentiellement dangereuses. Si un risque est détecté, la réponse du modèle est suspendue et soumise à une double vérification, d’abord automatisée, puis humaine. En cas de suspicion d’utilisation malveillante, le compte de l’utilisateur concerné peut être suspendu et signalé aux autorités compétentes.
Une « équipe rouge », composée de biologistes et d’experts en cybersécurité, a également été formée. Leur rôle est de tester les modèles dans des scénarios réalistes afin de détecter d’éventuelles vulnérabilités, en simulant des abus. Cette démarche permet à OpenAI d’offrir un accès ciblé à certains outils pour des institutions de recherche ou de santé.
Vers une gouvernance mondiale
Au-delà de la sécurité de ses systèmes, OpenAI souhaite étendre la notion de sécurité à l’ensemble de l’écosystème biologique. L’entreprise appelle à la mise en place d’infrastructures capables de :
- Détecter rapidement de nouveaux agents pathogènes
- Développer des systèmes de surveillance génétique
- Renforcer les capacités de réponse en cas de crise sanitaire
Un sommet sur la biodéfense est prévu en juillet, rassemblant agences gouvernementales et ONG pour discuter d’un cadre de gouvernance international. OpenAI anticipe également une convergence croissante entre IA et biologie, pouvant générer des opportunités dans le développement de nouveaux médicaments, vaccins, biocarburants ou traitements.
Évaluer et contrôler les modèles IA sensibles
L’évaluation des risques repose sur deux organes de supervision : un comité interne rattaché au conseil d’administration et une entité externe indépendante. Ces structures identifient les modèles jugés sensibles, notamment ceux susceptibles d’être détournés par des utilisateurs non experts. Ces modèles ne sont publiés qu’après l’intégration de garde-fous ou dans des versions limitées.
OpenAI conclut : « Les menaces biologiques peuvent avoir des conséquences dévastatrices. Il est donc impératif d’adopter une posture de prévention. »