Table of Contents
L’application Meta AI fait face à une vague de critiques pour avoir compromis la confidentialité des utilisateurs, révélant sans le savoir leurs secrets les plus intimes et leurs conversations privées.
Un rapport alarmant sur la vie privée
Un nouveau rapport a révélé que l’application Meta AI a failli à sa mission de protection de la vie privée des utilisateurs. En effet, les utilisateurs de l’application partagent involontairement des conversations privées, des clips audio et des images avec le public. La conception même de l’application facilite le partage de contenu, entraînant ainsi la diffusion de questions privées.
Avertissements de Mozilla
Ce mois-ci, Mozilla a publié un avertissement concernant le flux « intrusif » Discover de Meta, qui affiche les instructions génératives d’IA des utilisateurs. Selon la Fondation Mozilla, « Meta transforme discrètement les conversations privées avec l’IA en contenu public et trop de gens ne se rendent pas compte de ce qui se passe ». L’avertissement précise que « Meta brouille la frontière entre privé et public, au détriment de notre vie privée ».
Des préoccupations partagées
Le rapport mentionne que de nombreux utilisateurs ne sont pas conscients des implications de leurs partages. Par exemple, certains utilisateurs ont révélé des préoccupations personnelles liées à leur santé ou ont posé des questions juridiques. Quelques-uns ont même divulgué leur nom complet et leur adresse personnelle, créant ainsi un risque sérieux pour leur sécurité et leur vie privée.
Comportements révélateurs
Les publications publiques sur l’application montrent une variété de comportements des utilisateurs. Un individu a demandé pourquoi certains pets sentaient plus mauvais que d’autres, tandis qu’un autre a sollicité de l’aide pour rédiger une lettre juridique. Des experts en sécurité, comme Rachel Tobac, ont découvert des cas de divulgation de dossiers judiciaires et d’adresses résidentielles, représentant des violations graves de la vie privée.
Un passé controversé
Meta n’est pas étranger aux controverses en matière de confidentialité. Malgré ces antécédents, l’entreprise a lancé une application avec une fonctionnalité risquée. La transformation des requêtes IA en publications publiques évoque un incident d’AOL en 2006, qui avait entraîné un scandale majeur en matière de confidentialité. Alors que les utilisateurs considèrent généralement leurs interactions avec des outils d’IA comme privées, ce n’est pas le cas chez Meta, contrairement à Google qui préserve la confidentialité des requêtes des utilisateurs.
Statistiques sur l’application
L’application a été lancée le 29 avril 2025 et a été téléchargée 6,5 millions de fois, un chiffre relativement faible pour une entreprise de la taille de Meta, malgré des milliards d’euros investis dans l’IA. Ce lancement, entaché de problèmes de confidentialité, reflète un manque de planification et de supervision de la part de l’entreprise.
Implications pour les utilisateurs
Des utilisateurs réels sont touchés par ces problématiques. Imaginez poser une question juridique ou médicale à l’IA, pensant que cela resterait privé, pour découvrir par la suite que votre nom, votre photo ou votre voix ont été publiés. Cela peut être non seulement embarrassant, mais également dangereux, certaines publications contenant des informations exploitables à des fins de harcèlement ou d’usurpation d’identité.
Utilisation des données en Europe
Meta a récemment commencé à utiliser les données des utilisateurs de l’Union européenne pour entraîner ses modèles d’intelligence artificielle. Lors de cette annonce, Meta a souligné l’importance de former ses modèles sur une variété de données pour mieux comprendre les nuances des communautés européennes, malgré les strictes réglementations en matière de protection de la vie privée dans la région.