Citation
Les auteurs
CASES Anne-Sophie
(anne-sophie.cases@umontpellier.fr) - Université de Montpellier - Laboratoire MRMAgnès HELME-GUIZON
(agnes.helme-guizon@univ-grenoble-alpes.fr) - université Grenoble Alpes - ORCID : 0000-0003-2433-6273Nathalie Guichard
(nathalie.guichard@u-psud.fr) - Université Paris-Sud-SaclayJean-François TOTI
(jean-francois.toti@univ-lille.fr) - (Pas d'affiliation)Christelle Aubert Hassouni
(c.auberthassouni@psbedu.paris) - (Pas d'affiliation)
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
Le nombre d’articles scientifiques écrits avec l’aide de l’intelligence artificielle générative (IAg) est en pleine explosion (Jones, 2025). L’accès facilité aux IAg, allié à un système académique poussé à toujours plus de performance et un volume de plus en plus élevé de soumissions dans les revues académiques sont autant de facteurs qui peuvent expliquer un recours plus important à ces outils dans les différentes étapes de la recherche académique. Les grandes revues scientifiques, les éditeurs et les conférences internationales élaborent des procédures et chartes de bonnes conduites (guidelines), qui à ce stade, sont encore amenées à évoluer. Les chercheurs se questionnent sur les bonnes pratiques. Si tous s’accordent à dire qu’une IA ne peut être considérée comme un auteur ou co-auteur car dépourvue de personnalité juridique (Gregory et al., 2023), et que seul le chercheur est responsable et assume la responsabilité de l’utilisation des systèmes d’IAg dans son activité de recherche, les questionnements éthiques demeurent nombreux. Dans ce contexte, la question du futur de la recherche est posée. Comment le monde de la recherche académique peut/doit-il/pourrait-il se positionner face à la banalisation grandissante du recours à l’IAg ? Et comment garantir l’intégrité, la responsabilité et la confiance dans la recherche scientifique ?
Afin de répondre à cette question, nous avons complété l’analyse de la littérature par l’interview d’experts en IA et de responsables de revues académiques afin de saisir leurs perceptions, d’un point de vue éthique, de l’usage de l’IAg dans les processus et pratiques de recherche.
Intégration de l’IA générative dans la recherche et intégrité scientifique : quels enjeux ?
L’IAg permet la production de nouveaux contenus créatifs tels que du texte, des images, de la musique, des vidéos, à partir de prompts rédigés par des utilisateurs (Gregor, 2024). Auteurs et évaluateurs trouvent des avantages à son utilisation : les premiers pour, notamment, trouver des références, rédiger, analyser des données ; les seconds pour les assister dans la rédaction de leur évaluation d’un article et, en tant que rédacteurs en chef, pour identifier des évaluateurs (Kim, 2024).
Les enjeux ne portent plus sur l’intégration de ces outils dans la recherche académique mais plutôt sur la façon d’y avoir recours de manière responsable et éthique. La nécessité de définir une intégrité académique dans les usages de ces outils est aujourd’hui indispensable (Gatrell et al., 2024). Jones (2025) considère que l’autonomie
des IA, et notamment le recours aux agents intelligents, renforce la nécessité d’établir une conformité éthique dans la conception et l’usage de ces outils. Cela suppose donc d’une part une prise de conscience des auteurs et éditeurs et d’autre part un cadrage institutionnel.
La figure suivante résume les différentes questions à se poser dans les usages de l’IA pour la recherche académique
Figure 1 : les enjeux de l’utilisation de l’IA générative pour la recherche académique, adapté de Kim (2024)

Intégration de l’IA générative dans la recherche : quelles perceptions et pratiques ?
Une étude menée auprès de plus de 5 000 auteurs souligne la disparité des perceptions de ce qui est acceptable en termes d’usage et de transparence (Kwon, 2025). Une autre relève un manque de transparence dans la déclaration de l’usage des IAg (Brainard, 2025). Par ailleurs, le recours à l’IAg dans le processus de révision d’un article n’a pas fait l’objet de beaucoup d’attention empirique. Ebadi et al. (2025) ont interrogé 12 évaluateurs (reviewers) de différentes disciplines sur leur usage de modèles LLM (Large Language Models) dans le travail de relecture. Beaucoup d’entre eux semblent ignorer les positions des différentes revues à ce sujet, notamment l’interdiction de les utiliser. Les chartes et guidelines ne seraient donc pas suffisamment diffusées et lues ? Qu’en est-il en France ?
Vers une compréhension des perceptions de l’intégration de l’IAg dans la recherche française
Afin d’appréhender les perceptions des acteurs concernant les usages des IAg en fonction du statut du chercheur et des différentes disciplines de recherche, une étude qualitative a été menée sur la base d’entretiens réalisés auprès d’un panel, volontairement pluridisciplinaire, de 11 chercheurs (cf. annexe).
Doctorants, chercheurs plus confirmés, spécialistes d’IA, d’éthique et en charge de la ligne éditoriale de revues scientifiques, tous ces experts s’accordent à dire que les questions éthiques existaient bien avant l’IA mais que l’IA, notamment générative, vient amplifier le phénomène. Les questions éthiques se posent différemment suivant la façon dont on envisage la recherche. Il ressort globalement une perception plutôt négative que positive, faisant coexister une tendance à vouloir utiliser l’IAg, en particulier « pour ne pas se retrouver dépassé » dans quelques années, et un certain scepticisme quant à ses effets bénéfiques. D’un côté, l’IAg peut être vue comme un accélérateur de la recherche, comme l’ont été de nombreuses innovations antérieures (la machine à calculer, l’ordinateur, Internet, etc.), en proposant un outil d’aide, par exemple à la revue de la littérature, à la recherche d’articles ou encore à l’analyse des données. De l’autre, elle peut aussi être synonyme de perte de compétences. Certains experts soulignent le risque de se voir enfermés par l’IA et, par son usage, de biaiser la genèse du travail du chercheur ; d’autres considèrent que le statut d’expert du chercheur pourrait être remis en question, du fait d’une perte de certaines compétences sur de tâches qui auraient été confiées à l’IA. Enfin, avoir recours à l’IAg pour faire de la recherche bibliographique ou résumer des articles, identifier un gap théorique, c’est rendre, pour certains, le chercheur « passif » dans son activité de recherche.
Pour les éditeurs, le simple fait d’utiliser l’IAg au stage primaire d’évaluation d’un papier (par exemple, vérifier l’adéquation d’un papier avec la ligne éditoriale de la revue) pose déjà des questions sur le droit d’auteur pour un travail non publié qui pourrait venir alimenter une IAg.
Les chercheurs s’accordent à dire que l’IAg n’est qu’un outil au service de la recherche mais les modalités de son usage demeurent encore floues. De nombreux tests « avec et sans IAg » sont actuellement entrepris par les chercheurs tant pour écrire un article que pour tester leur capacité à expertiser un article. En fait, deux visions de la recherche s’opposent : celle en quête de toujours plus de publications et donc d’un gain de productivité pour publier dans des revues scientifiques si possible très bien classées ; l’automatisation des processus est dans ce cas un élément clé de l’usage de l’IAg. L’autre, prône une recherche dite plus « artisanale » où la qualité prime sur la quantité, où la recherche de sens dans les activités scientifiques demeure la priorité.
Les constats ci-dessus suggèrent qu’il devient impératif d’établir et de diffuser des politiques claires concernant l’utilisation de l’IAg dans l’évaluation par les pairs. Pour Gatrell (2024), il faut définir les limites de l’assistance de l’IAg et garantir que le jugement humain reste au cœur du processus d’évaluation. Le tableau 1 résume les perceptions des interviewés en matière d’utilisation de l’IAg dans la recherche.
Tableau 1 : L’IAg un outil pour la recherche : des bénéfices mais aussi des dangers

Pour un usage responsable des IA en recherche : quel cadrage de la part des éditeurs ?
Selon Gregor (2024), la régulation des usages doit se faire à plusieurs niveaux :
- L’équipe de recherche : la régulation repose sur l’éthique du chercheur et sur sa connaissance des risques engendrés par l’IAg. L’auteur préconise davantage de sensibilisation des chercheurs aux enjeux éthiques.
- Les structures organisationnelles dans lesquelles les chercheurs évoluent. Elles se doivent d’éveiller la conscience de leur personnel sur le risque de divulgation des données de la recherche par l’utilisation de solutions d’IA.
- L’industrie de la publication académique : elle comprend les éditeurs et rédacteurs en chef de revues, suit les directives de la COPE (the committee on Publication Ethics) qui édite des lignes directrices et des conseils dans l’usage de l’A pour lutter contre les « usines à articles ». Les revues proposent des recommandations sur ces principes pour les auteurs et évaluateurs en prônant la responsabilité et l’intégrité scientifique et parfois l’interdiction de l’usage des IAg pour l’évaluation de la recherche.
- Les pouvoirs publics (régulation gouvernementale), au niveau d’un pays ou d’un ensemble de pays comme l’Union Européenne : ils proposent des cadres réglementaires tels que la réglementation RGPD[1] ou des directives telles que la loi européenne sur l’intelligence artificielle (UE IA Act)[2].
Figure 2 : Les 4 niveaux de régulation des usages de l’IA (d’après Gregor, 2024)

Les recommandations quant à l’utilisation de l’IAg varient selon les éditeurs des revues. Par exemple, Elsevier (https://www-elsevier-com/about/policies-and-standards/generative-ai-policies-for-journals) et Sage (https://www.sagepub.com/journals/publication-ethics-policies/artificial-intelligence-policy) décrivent, de manière explicite ce qui est admis pour les auteurs, reviewers et éditeurs contrairement à Taylor & Francis. Les revues françaises en gestion, en nombre croissant, demandent aux auteurs d’être transparents dans leur usage de l’IAg et mentionnent explicitement l’interdiction d’une délégation de l’évaluation à une IAg. Le tableau 2 récapitule les recommandations des éditeurs.
Tableau 2 : Pratiques autorisées et interdites par les éditeurs

L’encadrement de l’utilisation des IAg par les évaluateurs et les éditeurs demeure flou. A ce jour, la COPE (commitee of publishing ethics) n’a pas publié de recommandations sur l’usage des outils d’IA dans le processus d’évaluation (la dernière édition date de 2017 ; https://publicationethics.org/guidance/guideline/ethical-guidelines-peer-reviewers). La question est abordée dans leur blog.
Kankanhalli (2024) identifie les cas d’usage les plus appropriés dans le processus d’évaluation : la vérification (checks) du format du papier, l’identification du plagiat et de la qualité du langage mais aussi l’aide dans la recherche d’experts et relecteurs. En revanche, il considère que les IAg ne sont pas encore capables de détecter le caractère novateur d’une recherche, son originalité ni son importance dans la littérature scientifique.
Conclusion
Les questions éthiques de la recherche académique ne sont pas nouvelles. Ce qui est nouveau, c’est la capacité des IAg à potentiellement remplacer l’humain dans des tâches cognitives, qui introduit de nouveaux questionnements éthiques relatifs à la valeur de la production (intellectuelle) humaine. Doit-on confier uniquement les tâches sans valeur ajoutée à l’IAg ? Comment garantir dans ce cas l’équité dans leurs usages ? Pourquoi se priver de la puissance de l’IAg en particulier sur les tâches cognitives, notamment celles qui sont répétitives ? Le cas échéant, quelle valeur ajoutée pour le chercheur ? Le débat est ouvert.
Bankins et Formosa (2023) identifient trois façons d’intégrer l’IA au travail : 1) l’IA, en autonomie, remplace l’humain pour certaines tâches sans supervision ; 2) l’humain manage l’IA (automatisation, apprentissage) et 3) l’IA assiste l’humain (on parle d’humain « augmenté ») avec le développement des agents IA. La façon dont les chercheurs utilisent l’IAg dans leur recherche pose la question du niveau de la supervision humaine nécessaire et souhaitable pour respecter une intégrité scientifique dans la recherche. Pour cela, Islam et Greenwood (2024) envisagent deux approches, l’une consistant à renforcer les mécanismes de responsabilité individuelle et de récompense qui découlent de l’idée de droit d’auteur, en distinguant ce qui relève de la créativité de l’auteur des autres parties établies par l’IAg (qualifiées d’« hypercommuns »), mais cela pose la question de savoir ce qui relève vraiment de l’auteur et de son mérite individuel. La seconde approche, plus radicale, envisage la fin des droits individuels d’auteur et prône une nouvelle forme de production scientifique collective. Toutefois, cette approche nécessite de repenser l’évaluation de la carrière des chercheurs. Il semble que les postures vis-à-vis de la sophistication de l’IAg – sa capacité à produire des contenus élaborés et à absorber la valeur ajoutée du chercheur – ne soient pas homogènes. Le seront-elles un jour ? Rien n’est moins sûr. Bien qu’il y ait convergence sur certains points, il existe une mosaïque de postures qui est le reflet d’un éventail de considérations éthiques, pratiques et philosophiques (Gulumbe et al., 2025).
[1] https://www.consilium.europa.eu/fr/policies/data-protection-regulation/
[2] https://artificialintelligenceact.eu/fr/
Bibliographie
- Bankins, S., Formosa P. (2023), The Ethical Implications of Artifial Intelligence for Meaningful Work, Journal of business Ethics, 185, 725-740.
- Brainard J. (2025), Far more authors use AI to write science papers than admit it, publisher reports. Finding highlights promise, questions about detectors of AI-generated text, Science, https://www.science.org/content/article/far-more-authors-use-ai-write-science-papers-admit-it-publisher-reports
- Ebadi, S., Nejadghanbar, H., Salman, A. R., & Khosravi, H. (2025). Exploring the impact of generative AI on peer review: Insights from journal reviewers. Journal of Academic Ethics, 1-15.
- Gatrell C., Muzio D., Post C., Wickert C. (2024), Here, There and Everywhere: On the responsive use of artificial intelligence in management research and the Peer-review process, Journal od Management Studies, 61(3), 739-751, doi.org:10.1111/joms.13045
- George, B., & Wooden, O. (2023). Managing the strategic transformation of higher education through artificial intelligence. Administrative Sciences, 13(9), 196.
- Gregor S. (2024), Responsible Artificial Intelligence and Journal Publishing, Journal of the Association for Information Systems, 25(1), 48-59.
- Gulumbe, B. H., Audu, S. M., & Hashim, A. M. (2025). Balancing AI and academic integrity: What are the positions of academic publishers and universities?. AI & SOCIETY, 40(3), 1775-1784.
- Islam G., Greenwood M. (2024), Generative Artificial Intelligence as Hypercommons: Ethics of Authorship and Ownership, Journal of Business Ethics, 192, 659-663.
- Jones M., (2025), Navigating the privacy paradox in a digital age: balancing innovation, data collection and ethical responsibility, Journal of Ethics in Entrepreneurship and Technology, 5(1), 2-13.
- Kankanhalli A. (2024), Peer Review in the Age of Generative AI, Journal pf the Association for Information Systems, 25(1), 76-83.
- Kim S.-J. (2024, Research ethics and issues regarding the use of ChatGPT-like artificial intelligence platforms by authors and reviewers: a narrative review, Science Editing, 11(2), 96-106.
- Kwon D. (2025), Is it OK for AI to write science papers? Nature survey shows researchers are split, News Feature, Nature, https://www.nature.com/articles/d41586-025-01463-8
- Mollaki, V. (2024). Death of a reviewer or death of peer review integrity? the challenges of using AI tools in peer reviewing and the need to go beyond publishing policies. Research Ethics, 20(2), 239-250.