Citation
L'auteur
Thomas Michaud
(michaud.thomas@yahoo.fr) - Laboratoire ISI/Lab RII, Université du Littoral, Côté d'Opale
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
Le Pape François (2024) a pris position sur le thème de l’intelligence artificielle dans son message pour la 57e journée mondiale pour la paix en 2024. Il affirmait que :
L’éducation à l’utilisation des formes d’intelligence artificielle devrait viser avant tout à promouvoir la pensée critique. Il est nécessaire que les utilisateurs de tout âge, mais surtout les jeunes, développent une capacité de discernement dans l’utilisation des données et contenus recueillis sur la toile ou produits par des systèmes d’intelligence artificielle. (…) La formation à l’utilisation des nouveaux outils devrait tenir compte non seulement de la désinformation, des fausses nouvelles, mais aussi de la recrudescence inquiétante de « peurs ancestrales (…) qui ont su se renforcer derrière les nouvelles technologies.
Le pédagogue du futur aura notamment pour fonction de protéger les élèves et étudiants du risque d’être projetés dans l’hallucination d’une intelligence artificielle. Ce terme renvoie au même concept que pour la conscience humaine et est utilisé pour désigner une réponse erronée présentée comme un fait certain. Les intelligences artificielles sont en effet imparfaites, et leur cognition est influencée par des contenus glanés sur Internet. Elles ne sont pas capables de déterminer systématiquement la véracité d’une information et peuvent aisément intégrer dans leur réflexion des articles rédigés au second degré ou ironiques, présentant les éléments comme des vérités alors qu’il s’agissait de mensonges ou de parodies.
Récemment, je cherchais la date de l’invention de la machine à écrire la date de ponte sur les œufs. J’ai donc naturellement demandé à Copilot de m’aider. Il m’a affirmé que l’INRA (Institut national de recherche agronomique) fut la première institution à réaliser cette prouesse en 1990 et que pour cela, une imprimante avait été insérée à l’intérieur de l’organisme des poules. La source de cette information renvoyait à un article du site scienceinfo.fr, humoristique et imaginant que l’INRA ait effectivement développé une telle innovation, permettant toutefois l’inscription sur seulement 500 œufs, dans la mesure où il était impossible de changer la cartouche de l’imprimante.
Cet exemple typique d’hallucination de Copilot permet de prendre la mesure des défis qui se posent aux chercheurs, et aussi aux pédagogues qui devront transmettre une méthodologie adaptée à la nécessité de systématiquement douter de toute information transmise par les IA. En effet, le doute rationnel devra être appliqué afin d’éviter d’entrer dans un véritable délire logique de la machine.
Cet article propose dans un premier temps de donner un nom à une pathologie organisationnelle, le syndrome hallucinatoire artificiellement généré, avant d’envisager les manières de s’en prémunir. Puis, les hallu-traqueurs seront définis comme une nouvelle profession visant à détecter ces syndromes et hallucinations au sein des entreprises. La formation de ces acteurs sera un enjeu stratégique fondamental dans les organisations des prochaines années.
Le syndrome hallucinatoire artificiellement généré
Face aux hallucinations artificielles, il existe un risque de provoquer l’incursion de l’utilisateur dans une conception altérée de la réalité, susceptible de provoquer une forme d’irrationalité, voire un nouveau type de psychose que nous proposons de nommer le Syndrome hallucinatoire artificiellement généré (SHAG). Les conséquences peuvent être individuelles et collectives. D’une part, l’individu peut se forger une conception de la réalité erronée, et orienter ses pensées et ses actions vers des trajectoires irrationnelles, répondant à une logique fondée sur des faits approximatifs, voire faux. Un tel problème pourrait se développer d’une manière importante à l’avenir si les IA sont insérées dans un flux informationnel parsemé de fake news. L’ère de la postvérité (Fabre, 2018) pourrait se caractériser par la multiplication des hallucinations d’IA, incapables de discerner le réel d’une pensée délirante. Ainsi, au niveau collectif, le problème pourrait s’avérer tout autant, voire plus dramatique. En effet, si nous reprenons la métaphore épidémique de Robert Shiller (2019), qui dans son économie narrative considère que les discours se diffusent comme des virus, il est à craindre que les hallucinations d’IA se propagent et génèrent des phénomènes politiques ou économiques majeurs.
Ainsi le SHAG pourrait devenir un problème multidimensionnel. Prenons à titre d’exemple l’impact pour un décideur d’entreprise ou pour un manager. L’intégration de sa rationalité dans une hallucination d’IA pourrait entrainer des erreurs d’appréciation de l’environnement économique ou concurrentiel, et l’orientation de la stratégie de l’organisation vers des trajectoires vouées à l’échec. Ainsi, il est possible d’imaginer qu’une entreprise fonde son processus de décision sur des informations générées par Copilot, ChatGPT ou autres Gemini. Un employé ou un manager chargé de la stratégie pourra forger son analyse sur des informations transmises par ces outils d’aide à la décision. Une foi aveugle dans ces informations pourrait provoquer, dans le cas d’une hallucination, des erreurs d’appréciation et la mise en place de mesures inappropriées ou inadaptées à l’environnement économique. Le problème des hallucinations d’IA pourrait alors devenir un problème juridique, dans la mesure où il est envisageable qu’une entreprise dont le jugement aura été biaisé par un tel outil se retourne contre lui en cas de préjudice économique provoqué par une hallucination.
Se prémunir des SHAG
Ainsi, il convient de mettre en œuvre des formations adaptées à la prise en compte des dérives potentielles liées à la propagation de fake news et d’hallucinations artificielles. Pascal (2023), s’est intéressé aux conséquences d’une utilisation par des avocats d’agents conversationnels basés sur l’intelligence artificielle en raison de leurs hallucinations. Une telle problématique se posera pour les managers, et pour un grand nombre d’acteurs de l’entreprise. Ainsi, il convient de mettre en œuvre des stratégies individuelles et collectives susceptibles de se prémunir du syndrome hallucinatoire artificiellement généré. Les pédagogues auront une fonction éducative pour former les étudiants à un esprit critique vis-à-vis des informations transmises par les IA. La vérification systématique des éléments communiqués par les IA nécessite le développement d’une posture intellectuelle rationnelle. Michelot (2021) estime ainsi que « la compétence numérique est en fait une nécessité sociétale dont il faut prendre la mesure pour ne pas créer de nouvelles fractures ». L’élaboration d’une culture adaptée à la compréhension et à la gestion cognitive des TIC apparait comme une nécessité pédagogique fondamentale. L’ignorance face aux discours erronés, aux fake news et aux hallucinations artificielles pourrait en effet générer des pathologies psychiques individuelles et collectives dans le pire des cas, se manifestant par des actions problématiques, irrationnelles, ou illogiques.
Il est intéressant de noter que l’IA peut devenir une schizotechnologie, c’est-à-dire une intelligence artificielle perturbée par une cognition pathologique. Le terme d’hallucination est utilisé par analogie avec le psychisme humain. En effet, si l’IA vise à reproduire l’intelligence humaine, elle pourrait aussi être victime de ses dysfonctionnements et pathologies. Toutefois, cette analogie ne fait pas l’unanimité dans le secteur de la psychiatrie. Østergaard et Nielbo (2023) estiment que les fausses réponses des modèles d’intelligence artificielle ne sont pas des hallucinations pour deux raisons :
- La métaphore est imprécise car l’hallucination est un terme médical utilisé pour décrire une perception sensorielle qui se produit en l’absence de stimulus externe. Or, les IA n’ont pas de perceptions sensorielles.
- Ce terme est stigmatisant, renvoyant à des pathologies psychiatriques comme le délire ou la schizophrénie et contribue à les représenter négativement.
Les auteurs ont demandé à ChatGPT de trouver un terme plus approprié. L’IA a donc proposé « non sequitur », signifiant « réponse non liée ». Si l’utilisation de ce nouveau terme est louable dans la mesure où elle vise à déstigmatiser négativement les patients humains réellement victimes d’hallucinations, Maleki et al. (2024) soulignent une utilisation approximative de cette formule dans les publications académiques. Le terme « hallucination » est toutefois particulièrement utile dans une perspective managériale.
Psychologie et management de l’IA
En effet, le SHAG pourrait avoir des implications managériales non négligeables. Dans la mesure où un nombre d’activités croissant est appelé à être orienté par les IA, l’incursion dans le délire d’une de ces machines pourrait s’avérer problématique pour la pertinence des résultats et provoquer des erreurs analytiques, notamment dans le traitement de requêtes de clients ou dans l’élaboration de plans stratégiques. L’état psychique irrationnel induit par l’influence du discours pathologique d’une IA pourrait bien devenir un problème important dans la gestion des organisations. Les SHAG pourraient en effet être des sources d’erreurs aux effets potentiellement catastrophiques pour la rentabilité et la productivité d’une organisation. Ainsi, des faillites pourraient être attribuées à un jugement biaisé de l’environnement économique occasionné par un discours erroné d’une IA. Un manager utilisant principalement l’IA sans vérifier ses sources pourrait gérer son équipe d’une manière inadaptée, provoquant souffrance au travail, distorsions psychiques et anomalies systémiques.
Il est ainsi possible d’imaginer que des formations intègrent le repérage des hallucinations artificielles dans leur programme. Des experts du sujet seraient formés pour vérifier la rationalité des informations transmises par les IA. Cette nouvelle fonction dans l’entreprise nous semble nécessaire et inévitable à l’avenir. Elle pourrait constituer un nouveau type de poste à l’ère de l’IA généralisée dans le système productif, démontrant que si cette technologie détruira certes des emplois, elle en créera aussi de nouveaux. Les « hallu-traqueurs » auront ainsi pour fonction de détecter les hallucinations dans les discours des IA, mais aussi leur impact potentiel sur la psychologie et l’activité professionnelle des managers et des employés. La détection des personnes victimes de SHAG impliquera une vérification précise de leur travail et leur insertion dans un processus de validation très pointu. Ainsi, il est probable qu’un grand nombre d’hallu-traqueurs soient dotés de compétences en intelligence artificielle, en recherche d’information, mais aussi en psychologie, afin d’évaluer les conséquences irrationnelles de données erronées sur les comportements des acteurs économiques.
Conclusion
Pour former ces hallu-traqueurs, un programme pédagogique devra être mis en place, impliquant une compréhension approfondie des modalités de génération d’informations par les IA. Par ailleurs, un esprit critique acéré constituera un outil nécessaire à la distinction entre des données factuelles et des hallucinations provoquées par des interprétations erronées d’articles trouvés sur Internet. Toutefois, il est aussi probable que ces hallucinations s’estompent avec le temps. En effet, les hallu-traqueurs auront aussi pour fonction de faire remonter les erreurs des IA afin d’en optimiser le fonctionnement. Dans quelques années, elles ne devraient plus générer d’hallucinations, rester fidèles à la réalité et aux faits analysés, et devenir parfaitement saines d’esprit. Ainsi, les ingénieurs et docteurs en datasciences auront un rôle crucial à jouer dans l’optimisation de cette technologie et dans la gestion de son influence sur les environnements professionnels. En effet, il convient d’ores et déjà de mettre en œuvre des barrières et des filtres afin d’éviter de voir l’IA devenir une source de désordre plutôt que l’agent d’optimisation organisationnelle qu’elle est censée incarner. L’esprit critique sera à l’avenir un outil important dans la gestion de ces nouvelles technologies, dont les hallucinations pourraient constituer un danger pour la rationalité humaine.
Bibliographie
Fabre, M. (2018), École et « post-vérité », Revue française de pédagogie, 204.
Maleki, N., Padmanabhan, B., Dutta, K. (2024), AI Hallucinations: A Misnomer Worth Clarifying, 2024 IEEE Conference on Artificial Intelligence (CAI), Singapore, Singapore, 133-138, doi: 10.1109/CAI59869.2024.00033.
Michelot, F. (2020), « Esprit (critique), es-tu là? » Enseigner aux compétences numériques et informationnelles, un enjeu sociétal. Revue internationale des technologies en pédagogie universitaire / International Journal of Technologies in Higher Education, 17(1), 97–104. https://doi.org/10.18162/ritpu-2020-v17n1-17
Pape François (2024), Intelligence artificielle. L’Humanité va-t-elle se soumettre à la machine ?, Le Figuier.
Pascal A. (2023), Les avocats confrontés aux hallucinations des agents conversationnels. Revue pratique de la prospective et de l’innovation, 2.
Shiller, R. (2019), Narrative Economics. How Stories Go Viral and Drive Major Economic Events, Princeton University Press.
Østergaard Søren Dinesen, Nielbo Kristoffer Laigaard, False Responses From Artificial Intelligence Models Are Not Hallucinations, Schizophrenia Bulletin, Volume 49, Issue 5, September 2023, Pages 1105–1107, https://doi.org/10.1093/schbul/sbad068
il ne peut pas avoir d'altmétriques.)