Table of Contents
Face au risque croissant de création de fausses notes de frais par des employés utilisant des outils d’intelligence artificielle générative, les éditeurs de logiciels réagissent en proposant des solutions de détection. Ces outils visent à identifier les justificatifs falsifiés ou synthétiques.
De fausses notes de frais générées par IA ?
Bien que la véracité de cette pratique reste à démontrer, les éditeurs de logiciels s’engagent dans cette nouvelle problématique.
Des factures générées avec ChatGPT
L’émergence d’un nouveau moteur de génération d’images dans ChatGPT 4.0 a suscité des inquiétudes. Cet outil est capable de produire des images de reçus ou de factures, souvent si réalistes qu’elles peuvent tromper un utilisateur distrait. De nombreux internautes ont partagé des exemples de telles images sur les réseaux sociaux.
Cependant, ces images présentent des caractéristiques qui peuvent trahir leur origine synthétique, telles que des erreurs typographiques ou mathématiques dans les montants affichés. Ces imperfections peuvent être corrigées par un utilisateur expérimenté à l’aide d’un logiciel de retouche photo ou par des instructions plus précises dans l’utilisation de l’outil.
Tous les acteurs se lancent dans la détection
Pour contrer cette menace, plusieurs éditeurs de logiciels de comptabilité lancent des outils de détection. Par exemple, N2JSoft, créateur de la solution de gestion des notes de frais N2F, prévoit d’intégrer un module d’intelligence artificielle destiné à identifier les fausses notes de frais en se basant sur des documents falsifiés.
Ce système est conçu pour non seulement détecter les faux documents, mais aussi pour identifier rapidement les dépenses qui contreviennent aux politiques de frais établies. Chaque dépense se voit attribuer une note de fiabilité pour prioriser les contrôles.
D’autres sociétés, comme Dext, profitent également de cette opportunité. Dext a récemment lancé une solution de détection d’images synthétiques afin de prévenir les fraudes. Ce module est complémentaire aux outils traditionnels qui détectent les fraudes en analysant les comportements suspects.
Efficacité à prouver
La nécessité de détecter les images générées artificiellement devient de plus en plus pressante avec la popularité croissante de ces technologies. Cependant, un défi majeur demeure : les méthodes utilisées pour identifier ce type d’images deviennent rapidement obsolètes et sont souvent remises en question par des chercheurs cherchant à tester leur fiabilité.
Pour remédier à cela, de grands fournisseurs de modèles de génération d’images, tels qu’OpenAI et Google, envisagent d’implémenter des solutions de filigranes et des systèmes de codage des métadonnées pour faciliter la détection de ces contenus. Bien que ces solutions soient en développement depuis plusieurs années, elles présentent encore des faiblesses et des limitations difficiles à surmonter.
Il n’existe donc pas de solution idéale pour repérer les contenus générés par intelligence artificielle, mais cela n’empêchera pas les éditeurs de les commercialiser.