Citation
Les auteurs
Rony Germon
(rony.germon@gmail.com) - PSTB Paris School of Business and Technology - ORCID : https://orcid.org/0009-0006-2956-1348Chiraz Aouina-Mejri
(c.aouinamejri@psbedu.paris) - (Pas d'affiliation)Héger Gabteni
(h.gabteni@psbedu.paris) - (Pas d'affiliation)
Copyright
Déclaration d'intérêts
Financements
Aperçu
L’IA n’est pas magique, ni neutre, ni désintéressée. Elle façonne et reflète nos choix sociaux, politiques et pédagogiques. Dans l’enseignement supérieur, elle promet de personnaliser l’apprentissage, mais peut tout autant automatiser les inégalités. Derrière la fascination technologique, l’article alerte : les systèmes d’IA sont souvent opaques, biaisés, et alimentés par des données extraites sans consentement.
Face au solutionnisme naïf, il faut une boussole éthique. Cinq principes sont proposés : transparence, supervision humaine, parcimonie des données, inclusion réelle, et évaluation critique. Car non, l’IA ne pense pas : elle imite. Et ce miroir algorithmique peut renforcer les écarts si on ne regarde que les moyennes.
Former à l’IA, c’est donc former à penser avec, contre et au-delà d’elle. Cela implique des cursus critiques, une gouvernance partagée, et une pédagogie qui redonne du pouvoir aux humains. Le vrai défi n’est pas de savoir ce que l’IA peut faire, mais ce que nous voulons faire avec elle.
Contenu
« L’IA, ce n’est ni de l’intelligence, ni de l’artificiel », rappelle Kate Crawford dans son ouvrage Atlas of AI. Cette formule, provocante mais perspicace, résume un paradoxe fondamental : sous ses dehors techniques, l’IA est d’abord un fait social, politique et culturel.
Dans l’enseignement supérieur français comme international, son irruption génère autant de fascination que d’inquiétude. Les questions sont nombreuses : peut-on corriger une copie, orienter un étudiant, planifier un parcours avec un algorithme ? Le risque existe d’une déshumanisation des processus pédagogiques, où les biais ne seraient plus des bugs mais des « caractéristiques » du système, comme l’affirme Ruha Benjamin.
Pour ne pas céder aux promesses d’un « solutionnisme technologique » où l’IA résoudrait tous les problèmes éducatifs, il devient nécessaire d’équiper les établissements d’enseignement supérieur d’outils critiques pour discerner le potentiel réel de ces technologies et de fait leur valeur ajoutée dans un contexte éducatif.
Déconstruire les mythes de l’IA en éducation
Selon une étude récente publiée dans le Journal of Applied Learning & Teaching (2025), l’IA n’est pas cette entité autonome, objective et intelligente qu’on imagine. Elle est le produit d’écologies extractives : données collectées sans consentement explicite, travail précaire des annotateurs du Sud global, dépendance à des ressources naturelles et énergétiques importantes.
« Les affirmations persistantes que l’IA rendra automatiquement le monde meilleur – plus démocratique, plus égalitaire, plus respectueux de l’environnement – sont remises en question par les tendances actuelles qui montrent que ces technologies tendent plutôt à exacerber les inégalités existantes, la dégradation environnementale et la précarité du travail », affirment Rudolph, Ismail, Tan et Seah (2025) qui identifient huit mythes persistants sur l’IA. Cette démystification est importante face aux discours techno-optimistes qui traversent le secteur éducatif.
Dans l’enseignement supérieur, cette illusion se manifeste par l’idée que l’IA permettrait automatiquement à chaque étudiant d’être mieux accompagné, mieux orienté, mieux évalué. Un récent rapport américain souligne pourtant que « les preuves empiriques d’un impact positif de l’IA générative sur les résultats d’apprentissage restent rares » (U.S. Department of Education, 2023), tandis que l’UNESCO note l’absence de « preuves concluantes » quant à l’amélioration des acquis.
Par ailleurs, les questions essentielles sont rarement posées : qui conçoit ces systèmes ? Sur quelles données sont-ils entraînés ? Avec quels présupposés culturels et pédagogiques ? Les systèmes d’IA reproduisent souvent des normes académiques, sociales et culturelles qui invisibilisent la diversité des parcours et des savoirs.
Cinq principes pour une IA émancipatrice dans l’enseignement supérieur
Plutôt qu’une posture de rejet technophobe ou de fascination technophile, il est temps de bâtir une éthique pratique de l’usage. Voici cinq principes concrets pour guider les établissements d’enseignement supérieur dans cette transition numérique.
Transparence : rendre l’invisible visible
Les étudiants doivent savoir où, quand et comment l’IA intervient dans leur parcours d’étude. Cette transparence constitue une occasion pédagogique de former à la littératie numérique critique.
Selon Popenici et al. (2023), « la transparence suppose d’exposer clairement les limites de l’IA, comme l’indétectabilité réelle des textes générés automatiquement ». OpenAI elle-même a reconnu l’inefficacité de ses propres détecteurs d’IA. Cette honnêteté intellectuelle est fondamentale pour maintenir l’intégrité académique.
Différents organismes d’enseignement supérieur intègrent depuis peu des parcours d’initiation à l’usage de l’IA à destination des enseignants et des étudiants. Cette intégration, qui reste timide actuellement, témoigne de la conscience de la nécessité d’accompagner et sensibiliser à la question de la transparence notamment.
Supervision humaine : l’algorithme ne doit jamais être seul décideur
L’IA peut assister la pédagogie, mais ne doit jamais remplacer le discernement des enseignants. Maintenir une chaîne de responsabilité humaine est indispensable pour contextualiser les données et comprendre leurs limites.
Cette approche rejoint la critique faite par Vallor (2024), pour qui l’IA ne pense pas réellement mais « emploie des constructions mathématiques pour simuler le raisonnement humain », simulacre qui risque d’éroder nos capacités critiques en nous déchargeant du travail cognitif nécessaire à la pensée authentique.
N’oublions pas que dans l’expérience d’apprentissage, un élément principal dans la réussite de ce transfert de connaissances revient au partage de sa propre personne, sa propre expérience et sa propre lecture de l’enseignant.
Parcimonie des données : collecter moins pour discriminer moins
Les données académiques sont particulièrement sensibles. Il faut les protéger, en limiter la collecte, et surtout empêcher tout usage à des fins de profilage ou de tri social implicite.
Les recherches montrent que les outils d’analyse prédictive en éducation peuvent introduire des biais raciaux significatifs. Une étude publiée en 2024 a démontré que ces outils sous-estiment systématiquement la réussite des étudiants noirs et hispaniques (Gándara et al., 2024), renforçant les inégalités qu’ils prétendent combattre.
Inclusion réelle : penser l’intersectionnalité
Comme le rappellent Safiya Umoja Noble et Ruha Benjamin, la simple « diversité affichée » ne suffit pas. Une analyse plus fine révèle que le capital, la race et le genre contribuent aux biais algorithmiques, ces catégories étant construites politiquement, culturellement et socialement plutôt que biologiquement (Lindgren, 2023).
Il est donc important d’auditer les outils avec des expertises variées, incluant les personnes concernées par les discriminations potentielles. La recherche montre par exemple que les femmes sont sous-représentées dans les équipes de conception d’IA, ce qui aggrave les biais de genre dans les systèmes déployés.
Évaluation critique : au-delà des moyennes, regarder les écarts
Un outil d’IA ne doit pas être jugé uniquement sur sa capacité à améliorer les performances moyennes. Il convient d’évaluer son impact différencié selon les profils des étudiants. Sans cela, l’IA risque de masquer, voire d’aggraver, les inégalités structurelles qu’elle prétend résoudre.
Des chercheurs comme Bender et al. (2021) qualifient les modèles de langage de “perroquets stochastiques” : ces systèmes ne comprennent pas le langage mais en reproduisent les formes, produisant des textes plausibles, sans profondeur réflexive ni capacité de vérification. Cette superficialité algorithmique, combinée à une apparence de neutralité, renforce la nécessité d’une évaluation fine, contextualisée et équitable des outils déployés.
Former à l’esprit critique algorithmique : une mission incontournable
L’enseignement supérieur ne peut se limiter à consommer des technologies : il doit former à les comprendre, les analyser et, le cas échéant, les contester. Cette formation ne peut être cantonnée aux filières techniques. Elle concerne aussi les sciences humaines, sociales et les disciplines critiques, qui offrent les outils nécessaires pour décrypter les enjeux politiques, sociaux et culturels de l’IA.
Plusieurs universités françaises commencent à intégrer cette logique. L’université d’Orléans, par exemple, a adopté en mars 2024 une charte pédagogique et informative sur l’usage de l’IA, afin de “former la communauté universitaire à des usages éclairés, critiques et éthiques” (AEF info, 2024).
Cela suppose d’intégrer dans les cursus :
- Des modules sur les biais algorithmiques et leurs impacts ;
- Des ateliers d’analyse critique de systèmes d’IA utilisés en éducation ;
- Des projets interdisciplinaires mêlant sciences du numérique, philosophie, droit, sociologie, design ou pédagogie.
Edward Said, dans Representations of the Intellectual, rappelait que l’intellectuel n’est pas un expert conformiste, mais un “trouble-fête” engagé dans la critique des évidences. Former à l’IA, c’est aussi raviver cette fonction critique dans l’université.
Vers une gouvernance éthique de l’IA dans l’enseignement supérieur
De nombreux établissements s’équipent désormais de chartes pour encadrer l’usage de l’IA. L’université de Lille a ainsi adopté, en février 2025, une charte de bonnes pratiques sur l’IA générative. Elle engage les enseignants, étudiants et personnels à la transparence, à la responsabilité et à une vigilance continue vis-à-vis des usages pédagogiques (AEF Info, 2025).
Mais ces chartes, encore trop souvent symboliques, gagneraient à s’accompagner de dispositifs concrets et pérennes :
- Des comités d’éthique techno pédagogiques incluant des enseignants, étudiants, chercheurs en SHS et développeurs ;
- Des audits indépendants réguliers des outils déployés ;
- Des clauses éthiques obligatoires dans les marchés publics et partenariats technologiques ;
- Des mécanismes de signalement et de recours pour les décisions algorithmiques impactantes.
Certaines grandes entreprises, confrontées à des enjeux comparables, commencent à structurer des politiques internes de gouvernance algorithmique (Éditions Législatives, 2024). Ces initiatives pourraient inspirer les universités pour passer d’une logique déclarative à une gouvernance effective, participative et transparente.
Au-delà de la technique : repenser la pédagogie à l’ère de l’IA
L’enjeu de l’IA en éducation ne se réduit pas à une question d’outils ou de productivité. Il s’agit, plus largement, de réinterroger ce que nous transmettons, pourquoi et comment. La technique n’émancipe pas en elle-même. C’est l’usage que nous en faisons, les cadres que nous lui imposons, les valeurs que nous défendons collectivement, qui peuvent en faire un levier d’émancipation.
Dans un contexte où l’enseignement supérieur affronte des crises multiples – managériale, idéologique, budgétaire –, l’IA ne doit pas servir d’écran de fumée. Elle peut devenir un révélateur des choix pédagogiques : standardiser ou diversifier, contrôler ou responsabiliser, accélérer ou réfléchir.
Face aux discours solutionnistes, il est urgent de redonner du sens. Et de se rappeler que l’éducation ne vise pas à former des utilisateurs efficaces d’outils automatisés, mais des citoyens capables de comprendre, critiquer et orienter le développement technologique vers des finalités démocratiques, inclusives et humaines.
Bibliographie
- Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp. 610–623).
- Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
- Gándara, D., Anahideh, H., Ison, M., & Picchiarini, L. (2024). Inside the black box: Detecting and mitigating algorithmic bias across racialized groups in college student-success prediction. AERA Open, 10(1), 1–15.
- Lindgren, S. (2023). Critical Studies of AI: Power, Politics, and Ethics. Oxford University Press.
- Popenici, S. (2023). Artificial Intelligence and Learning Futures: Critical Narratives of Technology and Imagination in Higher Education. Routledge.
- Rudolph, J., Ismail, F., Tan, S., & Seah, P. (2025). AI snake oil: How generative AI myths distort reality. Journal of Applied Learning & Teaching, 8(1), 1–46.
- Said, E. (1994). Representations of the Intellectual. The 1993 Reith Lectures. Vintage Books.
- U.S. Department of Education. (2023). Artificial Intelligence and the Future of Teaching and Learning: Insights and Recommendations.
- Vallor, S. (2024). The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking. Oxford University Press.
- Université de Lille. (2025). Charte des bonnes pratiques sur l’usage de l’IA générative dans les travaux pédagogiques. AEF Info
- Université d’Orléans. (2024). Charte pédagogique et informative sur l’IA. AEF Info
- Gouvernement français. (2025). Charte nationale sur l’IA à l’école annoncée par Élisabeth Borne. Le Figaro
- Éditions Législatives. (2024). L’université de l’ANDRH : Les entreprises se dotent de chartes éthiques sur l’IA. Éditions Législatives
Crédits
Futur Possible
PSTB Paris School of Technology and Business