More

    Pourquoi les IA comme ChatGPT inventent des informations

    France, Monde

    Les hallucinations IA — la tendance des chatbots comme ChatGPT, Gemini ou Grok à inventer des informations — restent un défi majeur pour la fiabilité des systèmes, pouvant aller de résultats cocasses à des conséquences graves pour des personnes et des entreprises.

    Applications d'IA sur un iPhone
    Les applications d’intelligence artificielle sur un iPhone. – Pexels

    Pourquoi les hallucinations IA surviennent, selon Google Cloud et les entreprises

    Le phénomène appelé hallucination couvre des réponses incorrectes, inventées ou trompeuses produites par des modèles de langue. Ces erreurs peuvent être bénignes — générer un détail inventé dans un texte — ou très préjudiciables : en mars dernier, un Norvégien a porté plainte contre le robot conversationnel d’OpenAI après que celui-ci « l’a présenté comme un meurtrier », affirmant qu’il avait tué deux de ses enfants et tenté d’assassiner le troisième.

    Plusieurs facteurs expliquent ces productions erronées. Google Cloud pointe « des données d’entraînement insuffisantes, des hypothèses erronées formulées par le modèle ou [des biais] dans les données utilisées pour entraîner le modèle ». Les chatbots apprennent à partir des données qui leur sont fournies en repérant des tendances : si ces données sont incomplètes ou biaisées, les prédictions risquent de l’être également.

    « SI les données d’entraînement sont incomplètes, biaisées ou erronées, le modèle d’IA peut apprendre des schémas incorrects, ce qui peut conduire à des prédictions inexactes ou à des hallucinations », explique Google Cloud.

    Un autre élément souvent cité est le manque d’ancrage factuel : ces modèles peinent parfois à comprendre précisément des connaissances du monde réel, des propriétés physiques ou des informations vérifiables. Le résultat peut être un texte fluide et vraisemblable, mais contenant des assertions non fondées ou absentes des sources originales — par exemple, un résumé d’article intégrant des éléments inventés.

    OpenAI, Longfact et SimpleQA : limites des tests pour réduire les hallucinations IA

    Les acteurs du secteur mettent en place des benchmarks pour mesurer et réduire les hallucinations. OpenAI indique s’être appuyée sur plusieurs jeux de données publics pour évaluer GPT-5, citant notamment Longfact et SimpleQA. L’éditeur a aussi déclaré que GPT-5 « est significativement moins susceptible d’avoir des hallucinations que \[ses\] modèles précédents », avec 45 % de réponses moins susceptibles de contenir une erreur factuelle par rapport à GPT-4o.

    Longfact comporte 2 280 requêtes couvrant 38 sujets (événements du XXe siècle, astronomie, médecine, sport, informatique…) et sollicite des réponses longues et détaillées. SimpleQA mesure la capacité à répondre à des questions courtes et factuelles, par exemple sur des dates, des personnalités ou des publications scientifiques.

    Mais ces évaluations présentent des limites : elles testent des cadres précis et ne reflètent pas forcément la diversité des usages quotidiens. OpenAI le reconnaît elle‑même : « SimpleQA est un outil de référence simple mais complexe pour évaluer la factualité des modèles de frontière. L’une de ses principales limites réside dans sa portée: bien que précis, SimpleQA ne mesure la factualité que dans le cadre contraint de requêtes brèves et factuelles, avec une réponse unique et vérifiable ».

    En pratique, des modèles peuvent obtenir de bons résultats sur des benchmarks tout en continuant à produire des hallucinations dans des contextes plus ouverts ou conversationnels. Les entreprises admettent qu’il est actuellement impossible d’éliminer totalement ces erreurs, en partie parce que les systèmes ne « comprennent » pas toujours les informations qu’on leur fournit.

    Conséquences, mesures et limites des améliorations

    Les hallucinations IA soulèvent des enjeux de sécurité, de responsabilité et de confiance. Des cas médiatisés montrent que la diffusion d’informations erronées peut nuire à des personnes ; les recours juridiques commencent à apparaître, comme l’illustre la plainte norvégienne contre OpenAI.

    Pour limiter les risques, les entreprises combinent plusieurs approches : améliorer la qualité et la diversité des données d’entraînement, développer des méthodes de vérification factuelle, et concevoir des évaluations plus représentatives des usages réels. Malgré ces efforts, les acteurs reconnaissent la nécessité d’une vigilance continue et d’une évaluation pragmatique des chiffres annoncés.

    En l’état, le risque d’hallucination demeure un paramètre à considérer pour les utilisateurs et les intégrateurs de ces technologies : les réponses des chatbots doivent être vérifiées lorsqu’elles portent sur des faits sensibles ou susceptibles d’engendrer des conséquences tangibles.

    source:https://www.bfmtv.com/tech/intelligence-artificielle/des-hallucinations-pourquoi-les-ia-ont-tendance-a-inventer-des-informations_AN-202508160206.html

    LAISSER UN COMMENTAIRE

    S'il vous plaît entrez votre commentaire!
    S'il vous plaît entrez votre nom ici


    Actualités

    L’acteur de Friends, Matthew Perry, décède à 54 ans

    "Matthew Perry, célèbre pour son rôle de Chandler Bing dans Friends, décède à 54 ans. Acteur très apprécié, sa mort suscite l'émotion mondiale."

    Entité sioniste déploie des navires de guerre en Mer Rouge selon un expert militaire

    Entité sioniste déploie des navires de guerre en Mer Rouge pour contrer les Houthis au Yémen, une manœuvre vue comme une démonstration de force envers l'Iran.

    L’affaire des SMS entre Pfizer et la Commission européenne : ce qu’il faut savoir

    En avril 2021, le New York Times a révélé...

    Banque suisse : Credit Suisse en chute libre après la faillite de la SVB

    L'action de Credit Suisse a dévissé de plus de...

    Le Retour de Microsoft avec Bing et Edge : Une Menace pour Google ?

    Depuis moins de trois mois, ChatGPT a déjà créé...

    Trump annonce un échange entre les dirigeants d’Israël et du Liban

    Trump annonce un échange historique entre les dirigeants d’Israël et du Liban, alors que les frappes et tensions se poursuivent au Liban.

    Conflit Iran-États-Unis : le Pakistan relance les négociations

    Le Pakistan intensifie sa médiation pour relancer les négociations Iran-États-Unis, sur fond de tensions au détroit d’Ormuz.

    Haïti : deux responsables limogés après la bousculade de la Citadelle

    En Haïti, deux responsables ont été limogés après la bousculade à la Citadelle de la Laferrière qui a fait 25 morts.

    Pétroliers sanctionnés traversent le détroit d’Ormuz malgré le blocus américain

    Des pétroliers sanctionnés franchissent le détroit d'Ormuz malgré le blocus américain, ravivant les tensions entre l'Iran, les États-Unis et la Chine.

    L’armée américaine menace de bloquer les ports iraniens lundi

    Les États-Unis annoncent un blocage des ports iraniens dès lundi, ravivant les tensions avec l’Iran et faisant bondir les prix du pétrole.

    Élections en Hongrie : Orban face à son plus grand défi

    En Hongrie, Viktor Orban affronte Peter Magyar dans un scrutin décisif, marqué par une participation record et des enjeux pour l’UE et l’Ukraine.

    Nigéria : des dizaines de morts dans une frappe aérienne

    Au Nigeria, une frappe de l'armée sur un marché du village de Jilli aurait fait plus de 100 morts, selon Amnesty International.

    Trump ordonne un blocus du détroit d’Ormuz après l’échec des négociations

    Trump ordonne un blocus naval du détroit d’Ormuz après l’échec des pourparlers US-Iran, faisant craindre une crise mondiale de l’énergie.

    à Lire

    Categories