Table of Contents
Le veto de Gavin Newsom sur la régulation de l’intelligence artificielle
Le gouverneur de Californie, Gavin Newsom, a récemment prononcé son veto sur un projet de loi visant à encadrer la régulation de l’intelligence artificielle. Ce projet, qui avait pourtant reçu un large soutien des législateurs au début du mois, prévoyait la mise en place de tests de sécurité, d’audits annuels ainsi qu’un mécanisme pour désactiver les modèles d’IA en cas de menace potentielle.
Arguments de Gavin Newsom
Lors de l’annonce de son veto le 29 septembre, Gavin Newsom a exprimé que, malgré de bonnes intentions, le projet ne tenait pas compte des différents niveaux de risque associés au déploiement des systèmes d’intelligence artificielle. Selon lui, les normes proposées auraient été appliquées de manière trop stricte, même à des fonctions basiques, ce qui nuirait à la protection du public face aux menaces réelles de la technologie.
Appel à une régulation basée sur des évidences
Le gouverneur Newsom a affirmé qu’il était convaincu de la nécessité d’une régulation, mais qu’elle devait se fonder sur des « preuves empiriques et scientifiques ». Il a fait savoir qu’il était prêt à collaborer avec le Congrès de Californie pour élaborer un nouveau projet de loi permettant de « protéger contre les menaces réelles sans entraver inutilement le potentiel de cette technologie ».
Détails du projet de loi SB 1047
Le projet de loi, identifié sous le nom de SB 1047, aurait concerné principalement les modèles d’IA ayant nécessité plus de 100 millions de dollars en ressources informatiques pour leur entraînement, ainsi que ceux issus de modèles open source ayant coûté plus de 10 millions en ajustements. Au total, seules quelques entreprises auraient été directement affectées par ces mesures.
Les dispositions du texte imposaient des tests de sécurité, la réalisation d’audits annuels sur les protocoles de sécurité des entreprises, et prévoyaient la possibilité pour la justice de poursuivre des sociétés en cas de négligence entraînant un « préjudice grave ».
Réactions de la Silicon Valley
Initié par la start-up Anthropic, le projet de loi avait subi de nombreux amendements. La version finale stipulait que les développeurs d’IA devaient faire preuve de « diligence raisonnable » en matière de sécurité. De plus, les risques de poursuites pénales avaient été remplacés par des poursuites civiles, rendant le cadre juridique moins contraignant.
Cependant, ce texte a suscité de vives critiques parmi les acteurs de la Silicon Valley. De nombreuses entreprises anticipaient que cette régulation nuirait à l’innovation. Des géants tels que OpenAI et Google réclamaient une approche réglementaire au niveau national, même en l’absence de consensus à Washington.