Table of Contents
Le groupe Meta a récemment annoncé qu’il allait utiliser les données de ses utilisateurs européens pour entraîner ses modèles d’intelligence artificielle, une décision qui soulève des préoccupations quant à la protection de la vie privée des utilisateurs.
Utilisation des données publiques par Meta
À partir du 14 avril, tout le contenu public des utilisateurs européens sur les plateformes de Meta, telles que Facebook et Instagram, pourra être utilisé pour améliorer ses modèles d’intelligence artificielle générative. Cela inclut les publications, les commentaires publics, ainsi que les légendes sous les photos sur Instagram et les questions envoyées via Messenger à Meta AI, le chatbot disponible dans l’Union européenne depuis fin mars.
Exemptions et notifications aux utilisateurs
Ce changement n’affectera pas les comptes des utilisateurs de moins de 18 ans, ni les messages privés des utilisateurs adultes « avec leurs amis et leur famille ». De plus, les données provenant de WhatsApp et les conversations avec Meta AI sur cette application ne sont pas concernées pour le moment. Les utilisateurs européens seront informés dans les jours à venir et pourront choisir de refuser l’utilisation de leurs données via un formulaire.
Contexte juridique et historique des plaintes
Cette décision marque un tournant pour Meta, qui avait précédemment déclaré que sa technologie d’intelligence artificielle n’avait pas été formée sur les données des utilisateurs européens. Le lancement de cette fonctionnalité avait été retardé d’un an à cause des réglementations européennes. Le groupe, confronté à des plaintes de l’association autrichienne de protection de la vie privée Noyb dans 11 pays européens, avait dû suspendre son projet d’utilisation des données personnelles dans un programme d’IA en juin 2024. Aujourd’hui, Meta s’appuie sur un avis du Comité européen de la protection des données, qui considère que l' »intérêt légitime » pourrait justifier l’utilisation de ces données pour le développement d’IA en Europe.