Citation
Les auteurs
CASES Anne-Sophie
(anne-sophie.cases@umontpellier.fr) - Université de Montpellier - Laboratoire MRMChristophe FOURNIER
(christophe.fournier@umontpellier.fr) - (Pas d'affiliation)
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
L’année 2023 a été une année d’accélération pour l’intelligence artificielle, avec l’arrivée d’un nouvel acteur : ChatGPT (OpenAI). En quelques semaines, ce chatbot basé sur l’IA générative est devenu l’une des pages les plus consultées et attire désormais 1,5 milliard de visites chaque mois. Depuis, d’autres acteurs comme Bing Chat, Bard, Mid Journey, Dall-E, Character AI ont fait leur apparition sur le marché. L’IA générative (IAG) est une catégorie d’IA qui se concentre sur la création de nouvelles données, de contenu ou de choses artistiques, de façon indépendante et ayant une ressemblance avec celles créées par des êtres humains. Elle dépasse ainsi l’IA analytique (Kübler, 2023) qui se concentrait sur des tâches spécifiques (classification, la prédiction ou la résolution de problèmes simples).
Si comme l’indique Moussavou (2023) et Moussavou (2024) les professeurs seront toujours présents, pour « professer », l’usage des IAG dans l’enseignement supérieur pose cependant plusieurs questions notamment sur la façon dont elles sont perçues et les risques qui en découlent au plan de l’éthique et de la déontologie de l’enseignant chercheur.
Ainsi l’UNESCO (2023) dans son document “Guidance for Generative AI in Education and Research” mentionne que « des outils d’intelligence artificielle générative de plus en plus sophistiqués soulèveront des préoccupations éthiques supplémentaires qui devront être examinées en détail. » Dans la même lignée, Moscarola et Kalika (2025) soulignent la nécessité, pour l’enseignant chercheur de recourir à l’Intelligence Artificielle dans son activité de recherche, sans que cela ne se fasse sans une certaine Intégrité Académique qui vise à faire respecter un certain nombre de pratiques. Pas d’IA (Intelligence Artificielle) sans IA (Intégrité Académique) !
Dans la suite de cette recherche exploratoire, le point de vue à la fois des enseignants-chercheurs mais aussi des étudiants est pris en considération afin de mieux identifier les questions éthiques liées à l’usage des IAG dans l’enseignement supérieur.
Cadre conceptuel : l’intégration de l’IAG dans les formations en management
Toutain et al (2023) identifient cinq mécanismes par lesquels l’IA peut bénéficier et transformer le domaine de l’enseignement du Management. L’IA est considérée comme un outil de partage et de création de contenu, mais aussi comme un outil permettant l’hyper-personnalisation des apprentissages. L’IA va améliorer la productivité et l’efficacité dans les apprentissages, proposer des environnements immersifs et virtuels, et enfin, va transformer le métier d’enseignant en conférant aux formateurs de nouveaux rôles (AI-empowerered educators). Si les bénéfices de l’usage de l’IAG sont mis en évidence dans la littérature, les questions éthiques dans l’usage de l’IAG demeurent au centre des préoccupations de l’enseignement supérieur. L’une des premières réactions est celle de de Sciences PO qui en janvier 2023 stipule que « Les élèves qui feront usage de ChatGPT s’exposent à des sanctions pouvant aller jusqu’à l’exclusion de l’établissement ». George B., Wooden O. (2023) identifient dans la littérature les questions éthiques soulevées par l’usage de l’IA dans la recherche académique : huit questions sont alors identifiées : le respect de la vie privée et la protection des données, les biais et le risque de discrimination, la représentativité des données, les preuves de transparence et la question de l’explicabilité (faisant référence la « boîte noire » des algorithmes de l’IA), le consentement, la responsabilité, la propriété intellectuelle, enfin la surveillance humaine dans la prise de décision par l’IA. Par ailleurs, les enjeux éthiques et le niveau risque ne seront pas le même suivant le type d’utilisation de l’IA, le risque sera certainement plus faible pour une utilisation de l’IA pour des tâches secondaires comme la correction d’orthographe (Gregor, 2024). Toutefois, pour Bertolucci M. (2024), « l’IA est plus qu’un simple outil par sa capacité à apprendre et à tisser des relations avec les humains à la manière d’un être conscient », cet auteur appelle à un renouveau de nos pratiques. La rapidité du développement technologique, ainsi que son application dans les secteurs privé et public, requièrent un suivi actif de la communauté universitaire. De la technique à l’éthique, l’IA remet en question une large part du champ des savoirs. L’IA pose la question de l’éthique et de la dimension de l’ethos[1], ce que l’individu est par rapport à la connaissance et sa construction. Cette thématique questionne la tension entre l’être et l’avoir. Aussi, l’abondance des savoirs et la dispense par l’IA de l’appropriation pour l’ordonner et en faire la synthèse permettent-elle la connaissance et la construction de l’être, éclairé, doté d’esprit critique et créatif ? Pour identifier les représentations des usages de l’IAG dans l’enseignement supérieur et les questions éthiques qui en découlent, nous avons procédé à une étude qualitative en deux temps, tout d’abord la caractérisation des niveaux d’intégration et des risques puis la hiérarchisation des ces derniers afin d’envisager des solutions pour permettre un usage responsable des IAG dans l’enseignement supérieur.
Résultats de l’étude qualitative
Les niveaux d’intégration des IAG dans l’enseignement supérieur
L’analyse des entretiens menés auprès à la fois des enseignants-chercheurs et des étudiants montre que les IAG peuvent être intégrées selon un continuum à 4 niveaux, le premier niveau qualifie les IAG comme une ressource, les IAG constituent une nouvelle interface de recherche qui potentiellement remplacera les requêtes sur un moteur de recherche. Certains considèrent les IAG comme un outil (second niveau) au service de l’apprentissage notamment à l’aide de fonctionnalités qui relèvent de la correction de textes d’orthographe ou de vérifications. Le caractère interactif des IAG confère à cet outil le rôle d’assistant de facilitateur (troisième niveau) pour aller plus loin dans les apprentissages. Enfin, le dernier niveau d’intégration considère l’IAG comme un co-producteur, co-créateur (quatrième niveau) on parle alors d’intelligence « augmentée ». Pour autant, la façon d’intégrer des IAG pour les enseignants et étudiants va dépendre de la littératie en IAG (notamment l’art du prompt), mais aussi des objectifs poursuivis par les acteurs, enfin de la pratique collective qui va légitimer ou pas le recours à l’outil et ainsi le favoriser.
Un usage responsable des IA génératives pour l’enseignement supérieur
Si certains répondants mettent en avant les gains évidents de productivité et de temps dans l’usage des IAG dans l’enseignement, tous en revanche pointent de potentiels risques comme la démotivation des étudiants (« perte de la volonté d’apprendre », risque qu’on passe tout par l’IA et qu’on vide nos cerveaux »). Trois catégories de risques éthiques dans l’usage des IAG dans l’enseignement supérieur, sont alors identifiés dans les entretiens, ceux liés à la question des données (risques de divulgation des données, véracité des informations, biais et hallucinations, qualité des données), ceux liés aux apprentissages (risque de plagiat, uniformisation des savoirs, propriété intellectuelle, validation des compétences), et enfin ceux liés à l’impact sur la société (fracture numérique, responsabilité, enjeu environnemental).
Si les enseignants considèrent le risque lié à un déficit d’apprentissage (ne plus avoir d’esprit critique, perte des capacités rédactionnelles, ou dépendance aux IAG) comme étant le plus important, les étudiants quant à eux sont davantage préoccupés par le manque de fiabilité dans les réponses apportées par les IAG. Toutefois, ces derniers sont également sensibles à l’impact des IAG dans leur mode d’apprentissage (risque de dépendance, baisse de leur créativité ou absence d’esprit critique).
Quelles solutions pour un usage responsable des IAG
Parmi les recommandations de l’UNESCO (2023), la formation des enseignants et des étudiants à une utilisation critique de l’IA doit être encouragé. A ce jour, certaines universités et écoles ont mis en place des plans d’IA en définissant des axes de travail pour faire évoluer leur offre de formation, transformer la pédagogie (former à l’IAG, avec l’IAG, évaluer avec l’IAG) et sensibiliser les étudiants à un usage responsable de l’IAG un exemple est proposé à l’université de Strasbourg https://idip.unistra.fr/ia/.
La sensibilisation aux risques éthiques des IAG dans le cadre des formations en management permettrait de mieux identifier les risques liés aux biais et aux hallucinations. Certains parcours de formation intègrent des cours sur le numérique responsable mais au-delà des enjeux environnementaux il semble nécessaire d’élargir cette sensibilisation aux risques liés aux données et aux apprentissages des IAG. La conception même de solutions d’IAG pour résoudre une question particulière peut être également une bonne façon pour les étudiants de s’approprier le fonctionnement des IAG et ainsi garder le contrôle sur l’outil. Côté enseignants, les méthodes d’évaluation doivent évoluer afin de juger plus le processus d’apprentissage que le résultat en tant que tel. Il faut distinguer ce qui relève du processus (l’effort d’être intelligent pour un humain) du produit (celui d’avoir trouvé la solution). Enfin, la transparence des usages des IAG devient un préalable dans le rendu des mémoires des étudiants et des articles scientifiques des enseignants-chercheurs pour identifier la façon dont ces outils ont été intégrés dans le travail et ont contribué à la création de connaissances de façon générale.
Conclusion
Cette recherche exploratoire a permis de catégoriser 3 grandes familles de risques dans les différents usages des IAG dans l’enseignement supérieur. Même si la hiérarchie des risques n’est pas identique pour les étudiants et pour les enseignants chercheurs, néanmoins tous sont conscients des risques qui découlent de leur usage. Garantir la protection des données, assurer une transparence dans les usages mais aussi tenir compte d’une analyse coût/bénéfice pour encourager la frugalité des IAG constituent les futurs enjeux de l’enseignement supérieur. En effet, selon Trystram et Ménissier (2024), il est nécessaire de s’interroger sur les usages en amont, jusqu’au renoncement de certains services et pratiques, pour que l’usage de l’IA soit compatible avec les limites planétaires. En effet, selon Andler (2024) « L’IA doit être vue comme une solution à des utilisateurs dont l’usage ne porte pas atteinte à leur autonomie et leurs capacités sur le long terme ».
[1] D’un point de vue étymologique, le terme éthique vient du grec ethos qui signifie mœurs, habitudes.
Bibliographie
Andler, L’humain est-il (vraiment) plus intelligent que la machine ? Conférence Vivatech Mai 2024.
Bertolucci M. (2024), L’intelligence artificielle dans le secteur public : revue de la littérature et programme de recherche, Gestion et management public, 5, 118-139, https://doi-org/10.3917/gmp.pr1.0008
Chevalier F. et Fournier C (2024), Pratiques Pédagogiques Innovantes, Editions EMS,
FNEGE (2024). Regards croisés sur les IA Génératives dans l’Enseignement Supérieur en Gestion : Panorama des pratiques et perspectives.
George B., Wooden O. (2023), Managing the strategic transformation of higher education through artificial intelligence, Adm. Sci, 13, https://doi.org/10.3390/admsci13090196
Gregor S. (2024), Responsible Artificial Intelligence and Journal Publishing, Journal of the Association for Information Systems, 25(1), 48-59, https://dblp.org/rec/journals/jais/Gregor24.bib
Kübler, R. (2023). La révolution dévorera-t-elle ses enfants ? L’impact de l’IA générative et interactive sur le marketing opérationnel et stratégique. Décisions Marketing, 112, 127-152. https://doi-org/10.3917/dm.112.0127
Moscarola J. et Kalika M. (2025), Promouvoir les usages de l’Intelligence Artificielle dans le respect de l’intégrité académique. Dans Réinventer l’intégrité académique à l’ère de l’intelligence artificielle. Dir. M. Bergadaà et P. Peixoto, EMS, Coll. Questions de société (à paraitre).
Moussavou J (2023) Quelles innovations pédagogiques à l’ère de l’IA ? Management & Data Science, https://management-datascience.org/articles/26522/
Moussavou J (2024), Quelles innovations pédagogiques à l’ère de l’IA ? https://www.youtube.com/watch?v=WgwqKwxRupY
Toutain O., Jabbouri R., Truong Y. (2023), Artificial Intelligence and the transformation of management education, Management International, 27(2), 119-132, http://doi.org/10.59876/a-kthz-pbf0
Trystram D. et Ménissier T. (2024), L’IA peut-elle vraiment être frugale ? TheConversation. https://theconversation.com/lia-peut-elle-vraiment-etre-frugale-226274
UNESCO (2023) Orientations pour l’intelligence artificielle générative dans l’éducation et la recherche, https://www.unesco.org/fr/articles/orientations-pour-lintelligence-artificielle-generative-dans-leducation-et-la-recherche
Crédits
Nous remercions la société SPHINX et particulièrement Mr Boris Moscarola pour l’accès à l’enquête suivante :
Nb. de commentaires
0