Citer
Imprimer
Partager

ChatGPT : Un robot conversationnel peut-il enseigner ?

  • Résumé
    C’est le phénomène numérique de la fin 2022 : ChatGPT. Cet outil conversationnel qui utilise l’Intelligence Artificielle est encore en phase de test et se présente comme « Optimizing Language Models for Dialogue ». Issu des travaux de OpenAI, il est spectaculaire. Il est même tellement spectaculaire que la maison mère de Google a annoncé un « code rouge » pour ne pas se faire dépasser par ce futur tueur de clics !
    Citation : Quinio, B., & Bidan, M. (Jan 2023). ChatGPT : Un robot conversationnel peut-il enseigner ?. Management et Datascience, 7(1). https://doi.org/10.36863/mds.a.22060.
    Les auteurs : 
    • Bernard Quinio
      - Université Paris-Nanterre
    • Marc Bidan
       (marc.bidan@univ-nantes.fr) - Université de Nantes
    Copyright : © 2023 les auteurs. Publication sous licence Creative Commons CC BY-ND.
    Liens d'intérêts : 
    Financement : 
    Texte complet

    Cette technologie est déjà largement médiatisée dans la presse grand public et professionnelle et elle le sera dans les publications académiques de 2023. Elle est abordée techniquement autour de son modèle de langage GPT-3 (Generative Pre-trained Transformer 3) conçu et développé par la société OpenAI depuis mai 2020 et largement ouvert aux utilisateurs depuis juillet 2020. Elle est aussi abordée sur ses multiples usages et conséquences possibles. En spécialistes des Système d’Informations, nous la présentons comme un artefact avec ses atouts et ses faiblesses et nous étudions ses possibles interactions sur l’enseignement.

    De quoi parle-t-on ?

    Le plus simple est peut-être de tester soi-même cette innovation technologique. Il suffit de se créer un compte et vous pouvez commencer à utiliser l’outil en lui posant des questions ou « prompt ». L’outil vous avertira ensuite qu’il a été conçu, développé et « entrainé à partir d’un grand corpus de données textuelles, comme des articles de journaux, des livres et des pages web, afin de pouvoir répondre à des questions et fournir des informations sur un large éventail de sujets ».

    Cet outil est donc encore en phase de test (version Beta) et dès la création du compte l’utilisateur est averti du but recherché : «  Our goal is to get external feedback in order to improve our systems and make them safer ». Ensuite l’une des originalités de ce système conversationnel est de proposer à l’utilisateur de rejoindre la plateforme discord pour échanger avec les 1 032 786 membres de la communauté OpenAI et donc faire progresser l’outil.

    Si ChatGPT fait peur aux autres géants du web – d’où le code rouge de Google – c’est qu’elle est capable de produire du contenu et donc d’éviter de le chercher. Si un Chat n’est pas un moteur de recherche, il peut à terme le concurrencer. Un moteur emmagasine du contenu dans sa base de données et propose des liens ou URL pertinents selon la demande et en faisant payer les clics. Chat GPT construit du contenu à partir d’éléments connus par lui seul en écrivant un texte presque parfait. Il existe d’autres Chat fonctionnant avec de l’IA mais aucun n’atteint la puissance de ChatGPT :

    • ai qui propose une réponse au prompt et quelques liens
    • Youchat qui semble un peu balbutiant
    • researchRabbit qui est spécialisé sur les recherches académiques

    De qui cette technologie est-elle la créature ?

    Lorsqu’OpenAI a été fondée- en 2015 par Elon Musk et Sam Altman – il s’agissait de travailler sur une « intelligence artificielle forte ». Ensuite – en 2019 – OpenAI est devenue une entreprise à revenus plafonnés – qui est financée majoritairement par Microsoft. Open AI avait déjà lancé Dall-E, une intelligence artificielle générative capable de créer des images à partir de phrases. Enfin – en 2022 – le chat est lancé et médiatisé de façon spectaculaire.

    D’un point de vue technique la technologie est spectaculaire mais pas révolutionnaire. Elle mobilise le modèle de langage GPT-3 basé sur des réseaux de neurones et plusieurs principes d’apprentissage (transfert learning, transformers, apprentissage par renforcement). Ce langage a été entrainé sur des données massives accessibles sur des milliards de contenus disponibles sur la toile (Bing, Github, Wikipedia). Après avoir « compris » ce que vous demandez, elle va sélectionner, combiner, synthétiser et réutiliser ces contenus pour produire du texte filtré par une API et ainsi répondre à votre question. La qualité du français restituée est étonnant, celle de l’anglais encore meilleure. Elle a été éduquée par un mélange de données, d’algorithmes et aussi d’interventions humaines pour lui apprendre à ne pas prédire l’avenir ni donner des réponses inappropriées. Il s’agit bien évidemment pour Microsoft d’éviter le désastre de Tay, le chat bot raciste.

    Quelles sont les limites actuelles de ChatGPT ?

    Certes les résultats proposés par le robot sont de grande qualité et ils apparaissent très rapidement sur l’écran mais comme toutes les machines, ce robot conversationnel a ses limites.

    Les limites éthiques sont immédiates, le robot ne respecte pas le RGPD européen car les données, les contenus et leur traitement sont localisées aux USA. Il ne respecte pas les droits d’auteurs et cela pose de nombreuses questions auxquelles il va falloir répondre. Il n’informe pas non plus l’utilisateur de l’exploitation future de ses données (son compte) ni du devenir de ses questions et autres requêtes (ses actions). Il n’est pas non plus explicite sur ses actions contre les biais et les stéréotypes de ses propres concepteurs (Gupta et al, 2022)

    Les limites scientifiques sont également notables car le robot n’informe pas sur ses sources – a priori un grand nombre de données proviennent de l’encyclopédie en ligne Wikipédia – ni sur l’origine et l’actualité de ses données. Le texte proposé est bien un « original » mais l’ensemble des données utilisées ne l’est pas. Les manipulations des contenus sont donc possibles (de Marcellis-Warin et al, 2022)

    Les limites économiques sont manifestes car OpenAI ne dévoile pas son business model (Maucuer et al, 2020) ni sa structuration financière. Comment les actionnaires, dont Microsoft, entendent rentrer dans leurs fonds ? Il est annoncé qu’une requête coute quelques centimes et que les utilisateurs sont déjà des millions. Il est probable que le service puisse devenir payant, d’une manière ou d’une autre, une fois que les utilisateurs en seront devenus captifs ou addicts !

    Les limites sur le fond sont aussi claires car même si les réponses de ChatGPT sont agréablement et correctement rédigées, elles peuvent être totalement fausses voire se contredire d’une fois sur l’autre sans que l’on sache pourquoi. Le manque de fraicheur des données, elles sont actuellement antérieures à 2021, lui font aussi dire des sottises. La qualité globale est bien présente mais elle est variable.

    Les limites écologiques et énergétiques ne sont sans doute pas négligeables au regard de la puissance de calcul donc de l’énergie – électrique notamment – qu’il faut mobiliser pour une simple requête. Sur ce sujet aucune information n’est donnée.

    ChatGPT, enseignant, étudiant : quel ménage à trois ?

    Nous laisserons le lecteur piocher dans la multitude articles qui énumèrent toutes les possibles utilisations du robot allant du marketing digital à la veille informationnelle, de la rédaction de post au débogage de code informatique, de la cuisine à l’apprentissage de l’espagnol. Nous évoquerons ici uniquement l’activité d’enseignement supérieur (universités, écoles d’ingénieur, business school, etc.).

    Nous avons tous connu, lu et subit les mémoires d’étudiants copiés intégralement ou partiellement du web (Bergadaà, 2015). Wikipedia d’abord, puis tous les blogs et site divers ont été une source inépuisable pour rédiger les 20 pages demandées. Les outils de détection de plagiat nous ont en parti sauvé la mise, mais avec ChatGPT point de plagiat, juste un contenu original auquel il faut rajouter des sources.

    Si je demande à mes étudiants un petit article sur le sujet de mon cours pour le blog de la promotion. Le robot conversationnel ChatGPT peut se muter en robot dissertationnel et devenir un allié de poids pour les étudiants. Une simple question avec des consignes de rédaction précise et apparait en quelques secondes un contenu original et pertinent. Un petit toilettage pour enlever les répétitions et corriger quelques coquilles, l’ajout de 2 liens et d’une photo et l’article est prêt et, pour l’instant, il l’est gratuit. Les enseignants auront sans doute aussi recours à ChatGPT pour produire des « actualisation de cours » en utilisant le même procédé.

    Si je suis enseignant en algorithmique, ma description de programme à réaliser sera suffisant pour que ChatGPT génère le code correspondant pour mes étudiants.

    Si nous restons dans une posture de transfert de connaissances vers les étudiants, cela va être compliqué pour deux raisons. D’abord pour l’intérêt qu’ils vont porter à nos cours : « pourquoi apprendre et retenir quelque chose que j’obtiens en deux minutes sur le web ? » et ensuite pour l’évaluation qui ne pourra se faire qu’en salle d’examen blanche avec un papier et un crayon. Bien évidemment, nous, enseignants, sommes tous plus ou moins passés au transfert de compétences : mettre en action des connaissances dans un contexte donné pour répondre à une question ou un besoin. Mais là, l’évaluation est autrement plus compliquée si on la veut pertinente. Faire un mémoire ? ChapGPT le fera très bien par morceau. Ecrire un programme informatique : ChatGPT le fera aussi. Alors bloquer l’accès à ChatGPT ? Mais ne forme-t-on pas des futurs praticiens qui utiliseront ces outils ? Pourquoi les en priver dans leurs études ou leurs examens ?

    Quand, le nombre le permet, il est possible d’envisager l’oral et la spontanéité du face à face lors des évaluations des étudiants. L’oral permet à l’évaluateur de vérifier la capacité d’analyse et de proposition de l’évalué et c’est approprié dans des validations de fin d’apprentissage (fin de semestre, fin de module, etc.). Oui, c’est vrai, quand le nombre le permet.

    Alors que faire ? Des chercheurs étudient depuis longtemps comment utiliser l’IA dans l’enseignement et dès l’apparition de ChatGPT, Ethan et Lilach Mollick de l’University of Pennsylvania – Wharton School – ont proposés des usages réellement passionnants de cet outil dans l’enseignement supérieur.

    L’idée de E et L Mollick dans leur article est de mettre en place une boucle d’apprentissage en utilisant Chatgpt comme un acteur à part entière. L’enseignant pose un problème à l’étudiant qui doit le résoudre avec ChatGPT selon plusieurs scénarios. L’étudiant peut être le professeur du ChatGPT et le pousser à améliorer ses réponses en ajoutant des consignes. Ou alors l’étudiant peut être dans une posture d’évaluation de la réponse du chat en recherchant des biais ou des omissions. Quel que soit le scénario, l’idée est de mettre l’apprenant dans un rôle actif et de considérer chatGPT comme un partenaire. On peut tout à fait imaginer des boucles de ce genre pour l’informatique (Braba et al, 2022), l’histoire ou l’apprentissage des langues.

    Contrôler ou collaborer ?

    ChatGPT est un très bel outil, son autonomie, sa force de frappe calculatoire et sa capacité d’apprentissage vont lui permettre de devenir un partenaire de l’humain. Il garde en tant qu’outil les motivations et les intentions de ses créateurs qu’il faut prendre en compte avec lucidité. Il apporte en tant qu’artefact des contenus, bluffant dans une pure logique conversationnelle mais pas acceptable en l’état dans une démarche d’enseignement. Comme nous l’avons toujours observé avec les outils numériques, il nous faut repenser notre travail d’enseignant pour déléguer, piloter, contrôler ou collaborer avec ChatGPT.

    Bibliographie

    Bergadaà, M. (2015). Une brève histoire de la lutte contre le plagiat dans le monde académique. Questions de communication, 27, 171-188. https://doi.org/10.4000/questionsdecommunication.9787

    de Marcellis-Warin, N., Marty, F., Thelisson, E. et al. Artificial intelligence and consumer manipulations: from consumer’s counter algorithms to firm’s self-regulation tools. AI Ethics 2, 259–268 (2022). https://doi.org/10.1007/s43681-022-00149-5

    Gupta M, Parra CM, Dennehy D. Questioning Racial and Gender Bias in AI-based Recommendations: Do Espoused National Cultural Values Matter? Inf Syst Front. 2022;24(5):1465-1481. doi: 10.1007/s10796-021-10156-2. Epub 2021 Jun 20. PMID: 34177358; PMCID: PMC8214712.

    Hayet Brabra, Marcos Baez, Boualem Benatallah, Walid Gaaloul, Sara Bouguelia, et al..  Di-alogue management in conversational systems:  a review of approaches, challenges, and op-portunities.  IEEE Transactions on Cognitive and Developmental Systems, In press, pp.1-15.

    Maucuer, R., Renaud, A., Snihur, Y., & Bojovic, N. (2020). Business Model Research in the Information Systems Literature: A Review and a Research Agenda. SystèMes D’Information Et Management (French Journal Of Management Information Systems), 25(4), 5-28. doi: http://dx.doi.org/10.9876/sim.v25i4.1160

  • Évaluation globale
    (Pas d'évaluation)

    (Il n'y a pas encore d'évaluation.)

    (Il n'y a pas encore de commentaire.)

    • Aucune ressource disponible.
    © 2023 - Management & Data Science. All rights reserved.