Table of Contents
À quelques jours du sommet pour l’action sur l’intelligence artificielle organisé à Paris les 10 et 11 février, les premières mesures de l’AI Act sont entrées en application dimanche. Ces mesures imposent des obligations aux entreprises, marquant un tournant significatif dans la réglementation de l’intelligence artificielle en Europe.
Interdictions et Régulations Clés
L’AI Act interdit strictement les systèmes d’intelligence artificielle qui vont à l’encontre des valeurs européennes. Plusieurs types d’applications sont désormais prohibées :
- Les systèmes de notation sociale : ceux qui existent en Chine, notamment le crédit social, sont interdits.
- La police prédictive : il est interdit de cibler des individus en se basant sur des critères ethniques ou comportementaux.
- La manipulation des vulnérabilités : l’exploitation d’âges, de handicaps ou de précarités est désormais hors-la-loi.
- La reconnaissance faciale en temps réel : son utilisation dans les espaces publics est interdite, sauf pour traquer un terroriste ou retrouver un enfant disparu.
- Les détecteurs d’émotions : leur utilisation dans les écoles et entreprises est prohibée.
Obligations pour les Organisations
Les entreprises doivent cartographier leurs systèmes d’IA selon une classification de risque (interdit, élevé, limité, minimal) avant août 2025. Les systèmes d’IA à haut risque, tels que ceux utilisés pour le recrutement, le crédit ou la santé, nécessiteront des évaluations de conformité, une documentation technique détaillée et des mécanismes de contrôle humain.
En résumé, voici les obligations à respecter :
- Cartographie express : les entreprises disposent de six mois pour analyser tous les systèmes d’IA utilisés.
- Formation obligatoire : tous les employés doivent suivre un module de formation éthique d’ici juin 2025.
- Transparence renforcée : les chatbots doivent se déclarer comme tels dès le premier message.
- Bacs à sable réglementaires : à partir de 2026, l’UE introduira ces dispositifs pour tester des utilisations novatrices dans des secteurs critiques comme la santé ou l’énergie.
Supervision et Sanctions
Un Comité européen de l’IA supervisera l’application uniforme du règlement dans l’UE. Chaque État désignera des autorités nationales, telles que la CNIL en France, pour contrôler le marché et traiter les plaintes.
Les entreprises qui ne respectent pas ces nouvelles régulations encourent de lourdes sanctions :
- Amende maximale : jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires mondial pour les grandes entreprises technologiques.
- Mise en conformité : pour le secteur bancaire et l’assurance d’ici août 2025.
- Certification : des systèmes critiques dans le domaine de la santé et des transports à partir de février 2026.
- Audit complet : des modèles génératifs des fournisseurs d’IA prévu pour août 2026.