Home Industrie et technologie Projet de loi en Californie pour protéger contre les risques IA

Projet de loi en Californie pour protéger contre les risques IA

by Lina
Projet de loi en Californie pour protéger contre les risques IA

Projet de loi en Californie pour protéger contre les risques IA

Le développement de l’intelligence artificielle (IA) suscite des espoirs quant à ses capacités à résoudre divers problèmes, mais également des craintes face aux conséquences potentielles de son utilisation abusive. En réponse, environ 200 projets de loi ont été proposés à travers les États-Unis visant à imposer des restrictions sur cette technologie émergente et puissante.

Un projet de loi qui pourrait impacter la Silicon Valley

Selon un rapport du « Bay Area News Group », le plus grand éditeur de journaux quotidiens et hebdomadaires de la région de la baie de San Francisco, l’un des projets les plus marquants provient de Californie. Ce projet de loi pourrait avoir des répercussions sur de nombreuses entreprises dans l’État, reconnu comme le berceau de l’innovation. La proposition a également suscité la colère de grandes entreprises de la Silicon Valley, telles que Google et Meta, la société propriétaire de Facebook, ainsi que de la startup Y Combinator.

Prévenir les risques plutôt que de les subir

Scott Wiener, sénateur démocrate de San Francisco, a déclaré que « l’objectif ici est d’anticiper les risques plutôt que d’attendre leur apparition, ce que nous faisons toujours ». Les analystes législatifs soulignent que, bien que l’IA puisse apporter des avantages significatifs dans des domaines tels que la médecine, les sciences climatiques, l’anticipation des incendies de forêt et le développement d’énergies propres, elle comporte également de grands dangers.

Les menaces liées à l’IA

Les craintes sont nombreuses concernant l’utilisation possible de l’IA pour développer des armes autonomes capables de sélectionner et d’atteindre des cibles sans intervention humaine. Par exemple, des drones armés d’IA pourraient être utilisés dans des attaques terroristes ou pour le trafic de drogue. De plus, les algorithmes alimentés par l’IA jouent un rôle dans des cyberattaques de phishing et des logiciels malveillants, comme le ransomware WannaCry de 2017, qui a exploité une faille dans le système Windows de Microsoft, causant des dommages économiques dépassant les milliards de dollars.

Les algorithmes automatisés utilisés dans le trading peuvent également manipuler les marchés, illustrés par le flash crash de 2010, où le Dow Jones a perdu 1000 points en quelques minutes avant de se redresser.

Les détails du projet de loi

Le projet de loi proposé par le sénateur Wiener vise à réguler le « développement et la diffusion de modèles d’IA avancés » en établissant une nouvelle autorité de régulation, appelée « Frontier Model Division ». Il prévoit également la création d’un programme de calcul baptisé « Cal Compu », financé par le secteur public. Ce programme sera centré sur le développement de modèles d’IA à grande échelle, fournissant expertise opérationnelle, soutien aux utilisateurs et promotion d’une innovation « équitable » dans le domaine de l’IA.

Les critiques du projet de loi

Cependant, certains opposants affirment que cette législation pourrait restreindre l’innovation et entraver le développement de l’IA open source. Ils soutiennent que le projet de loi « interprète radicalement de manière erronée comment les systèmes avancés d’IA sont construits » et qu’il impose des « obligations disproportionnées » aux développeurs, ce qui pourrait nuire à l’économie technologique florissante de Californie.

Rob Sherman, vice-président et responsable de la confidentialité chez Meta, a adressé une lettre à Wiener le 25 juin, soulignant que les systèmes d’IA sont développés par de nombreux acteurs avec des fonctions différentes. Il a noté que le principal défaut du projet de loi est qu’il ne tient pas compte de l’écosystème et ne définit pas la responsabilité en conséquence, imposant ainsi des obligations inappropriées aux développeurs pour des portions de l’écosystème qu’ils ne contrôlent pas.

Mesures de sécurité et responsabilités

Wiener a rejeté ces critiques, ayant accepté de nombreuses modifications lors des consultations avec les entreprises technologiques et les défenseurs de la sécurité de l’IA. Il a souligné que la réalisation d’évaluations de sécurité est absolument essentielle et que les grands laboratoires s’engagent déjà à les mener. En cas de détection d’un risque significatif de dommage catastrophique, les développeurs doivent prendre des mesures pour atténuer ce risque, ce qui rendrait la survenance de ces dangers moins probable.

Le projet de loi s’appliquerait uniquement aux développeurs d’IA produisant des modèles à grande échelle, en particulier ceux possédant une puissance de calcul supérieure à 100 millions de dollars pour appliquer des protocoles de sécurité. En outre, des sanctions pourraient être imposées aux entreprises ne signalant pas les incidents de sécurité de l’IA, notamment ceux exacerbant le risque de dommages graves.

Enjeux juridiques et prochaines étapes

Les violations de la loi pourraient entraîner des sanctions en fonction de la gravité de l’infraction. Selon le projet, un tribunal pourrait ordonner l’annulation d’un modèle d’IA et de ses données si l’incident a entraîné la mort, des blessures corporelles, des dommages matériels, ou constitue une menace pour la sécurité publique. Seul le procureur général de Californie pourrait engager des poursuites pour de telles violations.

Le projet de loi a été approuvé par le Sénat en mai, après avoir reçu l’aval des comités de la confidentialité et de la protection des consommateurs, et il est actuellement en route vers le comité des appropriations, en attente d’un vote avant d’être soumis au gouverneur de l’État.

You may also like

Leave a Comment


Droits d’auteur © 2024 – onemedia.fr – Tous droits réservés