Table of Contents
Une analyse menée par l’American Association for Cancer Research (AACR) met en lumière l’usage croissant de l’intelligence artificielle dans la recherche scientifique, notamment pour la rédaction d’abstracts et de commentaires lors du processus de peer review.
Détection IA dans la recherche scientifique : résultats de l’étude AACR (2024‑2025)
D’après l’étude présentée lors du 10e Congrès international sur l’évaluation par les pairs et les publications scientifiques, 23 % des abstracts en 2024 contenaient du texte probablement généré par un grand modèle de langage (LLM). Entre le 1er janvier et le 30 juin 2025, cette proportion est montée à 36 % parmi les 7 177 manuscrits examinés.
Les auteurs interrogés n’ont cependant déclaré avoir fait appel à ces outils que pour 9 % des articles étudiés, souligne l’analyse. Par ailleurs, 5 % des commentaires issus du processus de relecture par des pairs (« peer review ») ont probablement été rédigés par une intelligence artificielle, selon les mêmes données.
Pour passer en revue ces dizaines de milliers de manuscrits, l’AACR s’est appuyée sur l’outil AI Detection Dashboard, développé pour repérer les passages susceptibles d’avoir été produits par un modèle automatisé.
Méthode utilisée et limites identifiées par les chercheurs
L’outil AI Detection Dashboard repose sur le deep learning, la même famille de méthodes que les grands modèles de langage qu’il cherche à détecter. Il est entraîné à la fois sur des documents d’origine humaine et sur des textes « miroirs » générés par des systèmes automatisés, afin d’imiter et d’identifier les passages susceptibles d’avoir été produits par une machine.
« L’AACR a décidé d’entreprendre cette étude à la suite des retours de plusieurs chercheurs : des commentaires venus critiquer les papiers qu’ils venaient de soumettre à l’évaluation semblaient avoir été générés par IA », a raconté à la revue américaine Daniel Evanko, qui dirige le système éditorial de l’AACR et a piloté l’étude.
Les auteurs de l’étude soulignent cependant le risque de « faux positifs » : des articles identifiés par le logiciel comme générés par un modèle alors qu’ils ont été rédigés par des humains. Ce risque augmente avec le volume élevé de manuscrits traités, ce qui complique l’interprétation automatique des résultats.
Précautions proposées par des éditeurs et rédacteurs
La plupart des comités éditoriaux n’interdisent pas l’utilisation des outils automatisés dans l’édition scientifique, mais exigent que toute utilisation soit clairement précisée et que le modèle employé soit indiqué. Cette exigence vise tant la rédaction du texte que l’analyse de données ou la génération d’images, usages mentionnés par plusieurs observateurs.
Roy Perlis, rédacteur en chef de JAMA + AI, met en garde contre une confiance aveugle dans ces outils : « Il existe un risque réel que nous intégrions ces outils à nos processus [éditoriaux] et que nous traitions leurs résultats comme s’ils étaient infaillibles », explique-t-il dans Nature, puisqu’il existe un risque de « faux positifs », des articles dont le logiciel assure qu’il a été rédigé par l’IA alors que ce n’est pas le cas.
Selon Perlis et d’autres acteurs de l’édition, un détecteur comme AI Detection Dashboard peut toutefois servir de signal d’alerte : en cas de doute, les éditeurs peuvent demander des précisions aux auteurs — pratique déjà courante lorsque des lacunes ou des incohérences apparaissent dans un manuscrit — plutôt que d’incriminer a priori l’ensemble des travaux soumis.
Impacts pour la publication scientifique et prochaines étapes
Les résultats de l’AACR constituent un point de départ pour mieux appréhender la présence de textes générés par des modèles dans les manuscrits soumis aux revues. Les chiffres — 23 % en 2024, puis 36 % début 2025 — mettent en évidence une hausse rapide de l’usage de ces technologies dans la rédaction et la révision.
Les éditeurs et comités de lecture devront concilier la nécessité de transparence (déclaration de l’usage des outils) et la mise en place de procédures fiables pour distinguer textes humains et passages produits par un modèle. Les auteurs, de leur côté, restent tenus d’indiquer toute utilisation automatisée conformément aux règles des revues.
En l’état, les acteurs du monde scientifique insistent sur la prudence : les détecteurs existaient, mais ils ne remplacent pas l’examen humain et requièrent des vérifications complémentaires lorsqu’ils signalent l’usage d’un modèle linguistique.