Citer
Imprimer
Partager

La Pensée Complexe contre l’Intelligence Artificielle Dégénérative

  • Résumé
    Les récents bouleversements liés à ChatGPT incitent, plutôt qu’à en interdire l’usage, à reconsidérer les méthodes et modèles de pensée de l’enseignement. Cet article s’appuie sur la pensée complexe (de Edgar Morin) pour présenter trois propositions allant dans le sens d’une appropriation des IA génératives.
    Citation : MEISSONIER, R. (Juin 2023). La Pensée Complexe contre l’Intelligence Artificielle Dégénérative. Management et Datascience, 7(3). https://doi.org/10.36863/mds.a.24107.
    L'auteur : 
    • Régis MEISSONIER
       (regis.meissonier@umontpellier.fr) - Université de Montpellier  - ORCID : https://orcid.org/0000-0003-4709-2582
    Copyright : © 2023 l'auteur. Publication sous licence Creative Commons CC BY-ND.
    Liens d'intérêts : 
    Financement : 
    Texte complet

    Depuis le 30 novembre 2022, le succès fulgurant de ChatGPT n’aura eut d’égal que les controverses liées aux possibilités et aux dangers liées aux Intelligences Artificielles Génératives (d’un texte, d’une image, d’une vidéo, d’un son, voire d’un objet physique en fonction des requêtes saisies par l’utilisateur en langage naturel). Dans l’enseignement supérieur, la presse n’a eu de cesse de relater les dérives et les cas de fraudes d’étudiants. Tel un réflexe de Pavlov, certains établissements ont aussitôt interdit purement et simplement l’utilisation de ChatGPT capable de réussir un examen aussi bien, voire mieux, qu’un étudiant lambda (voir le cas d’obtention d’un MBA de l’université de Wharton). Comme jadis la calculatrice dans l’école primaire, et Wikipédia dans le supérieur, l’IAG est à son tour montrée du doigt comme contre-vecteur d’apprentissage. Si la décision de prohiber l’utilisation d’un outil considéré comme une menace peut être considérée comme rationnelle ou légitime, il convient déjà sur le plan pragmatique de considérer plusieurs difficultés rendant la démarche vaine.

    L’illusion de l’interdiction

    Pour interdire, il faut pouvoir empêcher, détecter et sanctionner. Empêcher, reviendrait à abandonner les exercices à réaliser librement et revenir au traditionnel examen surveillé en salle où seuls le papier et le stylo sont autorisés et où sont interdits, outre le trio ordinateur – smartphone – tablette, tous les autres objets qui bientôt pourront être reliés à de l’IA (lunettes connectées, écouteurs connectés, stylo connecté, etc.)… Détecter, demande de disposer d’un système permettant de s’assurer qu’un manuscrit rendu par un étudiant a été généré, tout ou partie, par de l’IA (et pas seulement par ChatGPT). Or, le texte ainsi obtenu au gré des requêtes est en soi une création d’une machine et non un texte préalablement publié sur Internet. Ainsi des détecteurs comme Copyleaks, Crossplag, GPTZero ou Draft & Goal,essentiellement basés sur la reconnaissance de patterns, ne permettent pas de prouver la fraude comme dans le cas d’un plagiat. D’autre part, une IA comme ChatGPT ne cesse d’évoluer de versions en versions demandant autant d’adaptations de ces dispositifs. Aussi, plusieurs éditeurs le précisent eux-mêmes que ces détecteurs ne gagnent pas à être utilisés afin de sanctionner directement les étudiants, mais comme une pièce constitutive de l’évaluation holistique du travail rendu. Ensuite, quand bien-même l’usage puisse être détecté, il n’existe pas, pour l’heure, de cadre légal permettant de caractériser l’infraction commise et donc de sanctionner. Un texte généré par une IAG, qu’un utilisateur copie et colle dans son document, n’est pas un plagiat au sens des droits d’auteurs et de la propriété intellectuelle, dans la mesure où le texte en question, n’est pas le fait d’un être humain et qu’il n’a pas été préalablement publié. Le vide juridique qui existe pour l’instant autour des usages pouvant être faits de textes générés par des IA confère une zone de flou quant à la recevabilité par un tribunal administratif des sanctions pouvant être prises envers les étudiants fautifs. Enfin, s’il s’agit d’interdire l’utilisation de ChatGPT aux étudiants, un principe éthique élémentaire, reviendrait à l’interdire également aux enseignants-chercheurs. Or, celui-ci apparaît déjà comme « co-auteurs » de plusieurs articles scientifiques publiés dans des revues académiques classées.

    Un nouvel environnement cognitif

    C’est donc un fait, en quelques mois, avec ses 100 millions d’utilisateurs et ses 590 millions de visites mensuelles, ChatGPTa révélé au public un nouvel environnement d’accès et de diffusion de connaissances. Toutefois, si la solution de la start-up américaine OpenAI est la plus populaire, outre ses concurrents directs (comme Bard, StableLM ou Mistral AI), il existe de nombreux robots conversationnels opensource (comme Bloom, Dolly, Koala ou GPT-J) qui peuvent être employés librement par n’importe quel développeur. Le public, les institutions et même les États ont accordé une attention monofocale à ChatGPT, alors qu’il n’est qu’un des exemples du nouvel environnement cognitif que représentent les IA génératives.

    Malgré les montés en puissance des versions, ces dispositifs resteront imparfaits car reposant sur des modèles de raisonnement ne représentant qu’une partie du mécanisme d’intelligence humain (lui-même imparfait et dont nous n’avons qu’une connaissance partielle du fonctionnement) ainsi que sur une masse de données d’entrainement et de référence sujette à des biais, des stéréotypes et dont la fiabilité des sources n’est pas garantie. Si les réseaux de neurones ont été entraînés à effectuer une pléthore de combinaisons dans une masse de données, ils ne font que proposer au final laréponse qui ressort statistiquement comme la plus cohérente. Qui plus est, lorsque des données sont manquantes, le système tend à générer la réponse qui est statistiquement la plus probable, ce qui peut produire des « hallucinations de l’Intelligence Artificielle » conduisant à la génération de fake-news. Le fantasme technologique nourri par les spéculations en tous genres qui fait poindre le spectre du cyborg, nous conduit donc à employer les termes « d’intelligence » ou« d’apprentissage », en oubliant souvent que malgré la sophistication des algorithmes, pour l’instant, les IA ne comprennent pas ce qu’elles font (Gandon, 2020; Goudey, 2023)⁠, sont dépourvues d’émotions, d’esprit critique, de curiosité, de doutes, de perspicacité, d’inventivité et de génie créatif. En conséquence, « les IA sont nulles en soft-skills » (Quinio, 2023)⁠ et c’est dans les entrelacs de ces « lacunes artificielles » que nous devons reconsidérer, outre les méthodes, nos modèles de pensée de l’enseignement, car « ce qui est vital aujourd’hui, ce n’est pas seulement d’apprendre, pas seulement de réapprendre, pas seulement de désapprendre, mais de réorganiser notre système mental pour réapprendre à apprendre. » (Morin, 1986)⁠.

    Parmi la multiplicité des écrits et des conférences qui ont été produits en quelques mois sur le sujet, plusieurs propositions ont pu être formulées en ce sens. Parmi elles, le webinaire « ChatGPT : ennemi ou allié pour l’enseignement supérieur ? », que j’ai eu le plaisir d’animer le 31 mars dernier, a attiré 1700 personnes et a livré des pistes de réflexion que je propose maintenant d’approfondir à l’aune de la pensée complexe.

    Recommandations en pensée complexe

    Une première recommandation est de se détacher de toute considération duale de ce que représentent les IA génératives à l’enseignement supérieur. Le principe dialogique (Morin, 1977)⁠ recommande de ne pas exclure, comme nous avons trop tendance à le faire, des notions qui apparaissent comme opposées. Il convient de faire sens avec des paradoxes et des contradictions pouvant être vus comme les deux faces d’une même pièce. Par exemples, l’acceptation n’est pas incompatible avec le rejet (un individu peut accepter de faire quelque chose sous contrainte ou résignation tout en la rejetant), une désorganisation n’est pas incompatible avec la notion d’organisation (une ad-hocratie est une forme d’organisation informelle), l’innovation n’est pas incompatible avec l’idée d’une co-élaboration ouverte avec les parties prenantes de son environnement (concept d’open-innovation). De même, le fait qu’une IA puisse générer un texte à la place de son utilisateur, n’est pas incompatible avec le fait que ce dernier puisse améliorer ses qualités rédactionnelles et son analyse critique. Les témoignages d’étudiants révèlent des usages intelligents de ChatGPT leur permettant d’éviter le « syndrome de la page blanche », d’améliorer leur écriture (syntaxe, grammaire, orthographe), de gagner du temps pour faire des fiches de lectures ou des résumés de cours.

    Les IAG sont des outils extraordinaires qui offrent également d’énormes possibilités pour aider les enseignants dans leurs cours (aide à la génération d’exercice, de QCM, à la correction de copies, de supports, etc.). L’enjeu réside moins dans le gain de temps qu’apportent ces outils pour réaliser un travail donné, que dans la manière avec laquelle l’individu va employer intelligemment le temps ainsi dégagé pour son processus d’apprentissage ou d’enseignement. Pour l’enseignement supérieur, les IA génératives ne sont ni une « menace », ni un « allié », ni l’intersection des deux, ni la limite entre les deux, mais la boucle récursive entre ces deux modalités. Dès-lors, notre vigilance doit veiller à ce que cette boucle ne devienne pas « dégénérative », ce qui implique de remettre en question les postulats sur lesquels nous fondons la transmission de savoirs et l’évaluation des connaissances.

    Tant que les méthodes d’enseignement et d’évaluation demeureront basées sur l’exactitude des résultats fournis par l’étudiant, l’IA ressortira gagnante de par ses capacités computationnelles qui supplantent largement celles de n’importe quel être humain. Pour s’en convaincre, il suffit de voir une des démonstrations faite le 14 mars dernier par le Président d’OpenAI lors de la présentation de la version 4 de ChatGPT. Celui-ci a fait un copier-coller dans l’application du Code des impôts des foyers américains (soit un total de 16 pages incluant autant de règles, d’exceptions et de particularités). Il a ensuite demandé à l’application de calculer le montant d’impôt qu’aurait à payer un couple marié en 2012, avec un enfant né en 2017, ayant vécu séparés pendant deux ans et présentant d’autres particularités en termes de droit à déduction d’impôts. Ce qui aurait demandé à un être humain de parcourir les longues pages du Code des impôts pour identifier ce à quoi le couple avait droit avant d’appliquer les différentes formules, n’a pris à ChatGPT que quelques secondes. Ce même genre de résultats peut être obtenu avec des résumés ou des compréhensions de texte, de la programmation informatique, des calculs mathématiques, etc. que grand nombre d’étudiants utilisent déjà lorsque des exercices de ce type leur sont donnés…

    Aussi, deuxième recommandation, plutôt que de chercher vainement à interdire l’usage d’un dispositif qui fait déjà partie de leur environnement, encadrons et accompagnons nos étudiants dans les manières d’utiliser intelligemment les IA génératives :

    • Enseignons, dans tous les programmes et diplômes, comment fonctionnent les IAG et comment elles ne fonctionnent pas, apprenons aux étudiants comment elles « apprennent », montrons-leur les limites quant à la manière avec laquelle elles génèrent du contenu afin de stimuler leur vigilance critique.
    • Incitons-les à utiliser l’IAG comme une source d’information et d’inspiration, comme une aide permettant d’éviter le syndrome de la page blanche.
    • Faisons-les travailler, dans la mesure du réalisable, sur des exercices, des études de cas au travers desquelles leur apport sera de compléter les IAG aux endroits où elles cessent d’être opérationnelles.
    • Evaluons-les non plus sur des rendus finaux, mais sur le processus par lequel ils ont construit leur analyse et développé leur esprit critique (Godé et al., 2023)⁠.

    Ceci implique de modifier, voire de transformer, les méthodes classiques d’enseignement et d’évaluation. Peut-être que le temps est venu à beaucoup de cours ex-cathedra délivrés par le Professeur en amphithéâtre de céder leur place à des méthodes de pédagogie inversée où l’étudiant se sert des dispositifs de son environnement pour lui-même construire son apprentissage sous la forme d’un projet. Peut-être que le temps est venu pour des évaluations davantage centrées sur ce processus. Devons-nous rappeler à cette fin les pensées de Jean-Louis Le Moigne trop longtemps négligées dans la recherche comme dans l’éducation et dont le progrès technologique semble aujourd’hui en imposer la pertinence ? « La connaissance humaine est processus avant d’être résultat ; elle se forme dans l’action et dans l’interaction. Elle est projective plutôt que subjective. »(Le Moigne, 2011)⁠

    Enfin, une troisième recommandation est de à co-construire avec des concepteurs une IAG spécifique à l’enseignement supérieur. À la différence de ChatGPT, celle-ci permettrait, par exemples pour un exercice donné, d’avoir accès au processus logique qu’a suivi la machine pour générer son contenu et aux sources sur lesquelles elle s’est fondée, de permettre aux enseignants (outre les fonctions d’aide à la création de leurs supports de cours) de tracer la manière avec laquelle l’étudiant l’a utilisée (précision des requêtes formulées, mode d’interaction avec la machine, sources d’informations complémentaires ajoutées par l’étudiant, etc.), de visualiser la différence qualitative entre le travail rendu par l’étudiant et le texte initialement généré par l’IAG, etc.

    Sans doute qu’une utilisation intelligente de l’intelligence artificielle réside dans la capacité d’analyse critique de son utilisateur qui a besoin de s’auto-entretenir dans son exercice même. À cette fin, on peut penser qu’un jour des ordinateurs complexes cesseront d’obéir inconditionnellement à la logique binaire et pourront devenir des collaborateurs précieux de l’esprit humain (Morin, 2001, pp. 288–289)⁠. Nous pourrions donc rêver d’une IA qui puisse aider l’individu à mieux faire sens de la complexité des phénomènes qui caractérisent notre époque ; une IA ne modélisant plus la complexité par une démultiplication de variables et d’éventualités statistiques réduisant ce qui est pertinent à ce qui est le plus probable ; une IA qui serait capable de ré-interroger les principes logiques à partir desquels elle a été conçue, d’intégrer l’inattendu, la systémique, la dialogie, de faire sens des paradoxes, etc. Bref, une IA capable de passer d’une « complexité restreinte » à une « complexité générale », donc de changer de paradigme comme jadis elle fut capable d’abandonner l’hypothèse computationnelle pour adopter l’hypothèse connexionniste. Mais pour cela, « la conception devra opérer un ré-examen des théories sur l’artefact et sur le cerveau dont elle dispose, éventuellement déclencher une ré-élaboration théorique, et peut-être mettre en question de façon plus fondamentale (paradigmatique) les principes qui lui permettent de concevoir une théorie » (Morin, 1986, pp. 186–187)⁠. Mais pour cela, encore faudrait-il le que les concepteurs et autres parties prenantes d’un tel projet aient lu et compris la pensée complexe et la modélisation systémique (sans se contenter de résumés générés par ChatGPT), puis aient convenu de la nécessité de les mobiliser.

    Bibliographie

    Gandon F. (2020), “Les IA comprennent-elles ce qu’elles font ?”, The Conversation, available at: https://theconversation.com/les-ia-comprennent-elles-ce-quelles-font-148513 (accessed 24 May 2023).

    Godé C.,Lebraty J.-F. & Bidan M. (2023), “ChatGPT, étudiants et enseignants-chercheurs : sont-ils vraiment félins pour l’autre ?”, Management & Data Science, available at:https://doi.org/10.36863/MDS.A.23595.

    Goudey A. (2023), “Chat GPT ou GPT Cheat ? La déferlante des IA génératives”, ChatGPT : Ennemi Ou Allié Pour l’enseignement Supérieur ?, Webinaire Aunege, 31 mars.

    Le Moigne J.-L. (2011), “From Jean Piaget to Ernst von Glasersfeld: an Epistemological Itinerary in Review”, Constructivist Foundations, vol. 6, n°2.

    Morin E. (1977), La méthode, tome 1 : la nature de la nature, Editions du Seuil, Paris.

    Morin E. (1986), La méthode, tome 3 : la connaissance de la connaissance, Editions du Seuil, Paris.

    Morin E. (2001), La méthode, tome 5 : l’humanité de l’humanité, Editions du Seuil, Paris.

    Quinio B. (2023), “ChatGPT réinterroge la finalité de l’apprentissage”, ChatGPT : Ennemi Ou Allié Pour l’enseignement Supérieur ?, Webinaire Aunege, 31 mars, available at: https://aunege.fr/wp-content/uploads/2023/04/Bernard-Quinio.pdf.

  • Évaluation globale
    (Pas d'évaluation)

    (Il n'y a pas encore d'évaluation.)

    (Il n'y a pas encore de commentaire.)

    • Aucune ressource disponible.
    © 2024 - Management & Data Science. All rights reserved.