Home Actualité L’IA Générative Amplifie les Préjugés : Peut-on les Corriger ?

L’IA Générative Amplifie les Préjugés : Peut-on les Corriger ?

by Sara
L'IA Générative Amplifie les Préjugés : Peut-on les Corriger ?
France

Les outils d’intelligence artificielle (IA) sont connus pour reproduire et amplifier les préjugés humains concernant la race ou le genre, mais corriger ces biais discriminatoires s’est avéré difficile. Le retour au pouvoir de Donald Trump aux États-Unis semble avoir mis un frein à tout espoir de progrès, à moins que l’Europe ne parvienne à résister à la vague de dérégulation.

Des stéréotypes négatifs sur les banlieues françaises

Des bâtiments délabrés, des rues jonchées de déchets et des habitants maussades vêtus de vêtements sales et troués. C’est ainsi que le créateur d’images alimenté par l’IA Midjourney a dépeint les *banlieues* françaises en 2023, propageant des stéréotypes négatifs sur les quartiers périphériques des villes françaises.

Ce portrait désobligeant des banlieues a fait l’objet d’une campagne virale par l’application de covoiturage Heetch, qui a invité les résidents à envoyer des cartes postales aux développeurs de Midjourney pour leur demander de supprimer les biais liés aux *banlieues* de leur modèle d’IA.

Comme l’a montré cette campagne, les recherches pour des termes comme « école de banlieue » ou « mariage de banlieue » ont révélé des préjugés frappants, contrastant fortement avec les images représentant la France non-suburbaine.

Elon Musk ridiculise les efforts passés pour corriger les biais discriminatoires dans les outils d'IA générative.

Les biais dans les chatbots IA

Un biais discriminatoire est également présent dans les chatbots IA, notamment en ce qui concerne les personnes de couleur, les femmes et les personnes handicapées, déclare le journaliste Rémy Demichelis, auteur d’un livre sur les biais dans les systèmes d’intelligence artificielle, intitulé « L’Intelligence artificielle, ses biais et les nôtres ».

Cette discrimination automatisée trouve ses racines dans les données utilisées par les systèmes d’IA, qui sont elles-mêmes empreintes de stéréotypes et donc biaisées.

Des recherches sur des bases de données de photos de mariage, par exemple, ont montré qu’environ la moitié des images proviennent de seulement deux pays : les États-Unis et le Royaume-Uni.

Une prise de conscience croissante

Il n’existe pas d’algorithme neutre, souligne Demichelis, notant que « les algorithmes reproduisent non seulement les biais inhérents à la société mais les renforcent également ». Reconnaître ce biais structurel n’exempte pas l’industrie et les décideurs de s’efforcer de le corriger, argue Jean Cattan, responsable du *Conseil national du numérique*, un organisme consultatif indépendant chargé d’explorer la relation complexe entre la technologie numérique et la société.

« Nous constatons une prise de conscience croissante du problème et enterrer notre tête dans le sable n’est pas une option », déclare-t-il.

Une image illustrant le pourcentage de la population concernée.

Les défis de la régulation

Cattan évoque des « améliorations concrètes » dans les chatbots les plus connus, tout en avertissant que la prolifération récente des systèmes d’IA signifie que tous ne sont pas modérés ou soumis aux mêmes normes. « Il existe maintenant une abondance d’assistants conversationnels qui portent les mêmes biais que par le passé, voire des biais encore plus graves, avec relativement peu de contrôle sur les bases de données sur lesquelles ils sont entraînés », a-t-il mis en garde.

Les efforts pour corriger les préjugés

Il y a eu des tentatives dans l’industrie pour corriger les préjugés inhérents, certaines se terminant par des embarras. L’outil IA de Google, Gemini, a été critiqué l’année dernière lorsqu’une tentative mal conçue de correction des biais a conduit le chatbot à générer des images de femmes asiatiques en uniforme nazi et d’un Père fondateur américain à la peau noire. Ces publications virales sur les images historiquement inexactes de Gemini sont rapidement devenues un sujet de débat dans une guerre culturelle plus large sur le politiquement correct, forçant Google à s’excuser et à « suspendre » l’outil.

De tels incidents soulignent la difficulté de former des modèles IA pour compenser des siècles de biais humain sans créer d’autres problèmes. « Techniquement, il est extrêmement difficile pour les concepteurs de déterminer exactement où se produit le préjugé », note Demichelis, en soulignant qu’une certaine forme de biais est inévitable.

La poussée réglementaire de l’Europe

Cattan estime que l’amélioration des chatbots dépendra en grande partie des retours des utilisateurs et de l’obligation faite aux entreprises de rendre compte des plaintes et autres commentaires qu’elles reçoivent. Il recommande d’utiliser des outils permettant de comparer différents modèles d’IA.

Il espère que la nouvelle loi sur l’IA de l’Union européenne, qui entrera en vigueur par étapes au cours des trois prochaines années, protégera les utilisateurs et marquera une étape importante dans la régulation de cette technologie. Cette loi, dont certaines parties ont pris effet plus tôt ce mois-ci, interdit notamment les systèmes de « catégorisation biométrique » qui trient les personnes en fonction de données biométriques pour inférer leur race, orientation sexuelle, opinions politiques ou croyances religieuses.

La capacité de l’Europe à résister face aux géants de la technologie pourrait encore façonner l’avenir de la régulation de l’IA.

Ia Générative | Intelligence Artificielle | Préjugés | Discrimination | Midjourney | France
source:https://www.france24.com/en/technology/20250207-generative-ai-models-are-known-to-amplify-prejudice-%E2%80%93-can-they-be-fixed

You may also like

Leave a Comment

Droits d’auteur © 2024 – onemedia.fr – Tous droits réservés