Citation
L'auteur
Christian Goglin
(christian.goglin@free.fr) - ICD Business School - ORCID : 0009-0007-1446-303X
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
Ces derniers temps, il est de bon ton de critiquer l’Intelligence Artificielle, si certains évoquent la formation d’une bulle spéculative [1], d’autres se montrent alarmistes et mettent en garde contre les risques existentiels encourus [2]. Disons-le d’emblée, la critique est nécessaire et parfois salutaire. Pourtant, il ne faudrait pas jeter le bébé avec l’eau du bain car l’IA apporte des solutions utiles et se montre plus efficace que l’homme dans de multiples contextes. Parmi les innombrables cas d’usage avantageux de l’IA (découverte de nouvelles molécules à usage pharmaceutique, diagnostic médical amélioré, optimisation des ressources naturelles…), considérons celui des IA d’aide à la décision. Pourquoi ? Parce que la prise de décision, qu’elle soit politique, administrative ou managériale, est le processus cognitif fondamental qui façonne la société et notre monde. Aussi, ces dernières années ont vu se multiplier ces systèmes décisionnels basés sur des données, dans les administrations comme dans les entreprises commerciales. Dans la sphère marchande, l’octroi de crédit et le filtrage de CV des candidats à l’embauche sont des exemples emblématiques désormais bien connus.
Dans leur critique, les contempteurs de ces systèmes d’IA pointent principalement deux faiblesses : leur opacité et le risque de biais discriminatoire.
Mais l’homme ne devrait-il pas d’abord ‘balayer devant sa porte’ avant d’incriminer la machine ? Les décisions humaines sont-elles si intelligentes ? Si l’actualité et l’histoire sont le reflet de notre sagesse, homo sapiens n’aurait-il pas plutôt besoin d’une assistance, fût-elle artificielle ?
Afin d’apporter quelques éléments de réponse à ce questionnement, comparons la décision chez l’homme et la machine, au prisme des critiques d’opacité et de discrimination, en considérant le cas concret du recrutement.
D’abord, sur le volet de la transparence, lorsqu’un filtrage de CV est effectué par un recruteur humain, celui-ci n’a pas à justifier son choix. Mais s’il devait le faire, serait-il capable d’expliciter les motifs de sa décision ? Rien n’est moins sûr. La psychologie cognitive nous apprend que si l’humain mobilise le raisonnement, il recourt aussi largement à l’intuition, c’est à dire à une connaissance instantanée, qui donne l’impression de savoir sans savoir pourquoi. En outre, l’inconscient est aussi à l’œuvre et le recruteur peut être la marionnette de ses préjugés et stéréotypes sans même s’en rendre compte. Aussi, sans même considérer la question de la sincérité du recruteur sommé de s’expliquer, il n’est pas difficile de conclure que sa décision est intrinsèquement opaque car elle résulte d’un mécanisme flou.
À l’inverse, les modèles décisionnels reposant sur le l’apprentissage automatique, y compris les réseaux de neurones, souvent considérés comme des boîtes noires, ne sont pas aussi inexplicables qu’on ne le croit [3]. D’abord, contrairement à l’humain, non seulement les machines ne mentent pas, mais encore, elles peuvent être auditées in extenso. Aussi, les progrès de la recherche en matière d’explicabilité des IA sont tangibles. Il est ainsi possible de quantifier l’importance relative des variables contribuant à la décision, ce qui permet par exemple de savoir si un CV rejeté l’a été pour de bonnes raisons.
Sur le volet du second reproche, celui des biais, les travaux en psychologie cognitive, notamment ceux de Daniel Khaneman, prix Nobel d’économie en 2002, ont démontré l’existence de multiples biais cognitifs chez l’homme [4]. Qu’il s’agisse de biais mnésique, de jugement ou de raisonnement, la liste est longue… Ces biais témoignent notamment de mécanismes procédant par heuristiques, soit des raccourcis de la pensée, économiques sur le plan cognitif mais plus ou moins heureux sur celui des résultats.
Les modèles d’IA sont également concernés pas les biais, c’est indiscutable. En apprentissage automatique, l’IA apprend à réaliser une tâche, telle que prendre une décision, sur la base d’exemples. Aussi, non seulement les biais des hommes se retrouvent dans le jeu d’apprentissage mais encore, ces données ne reflètent qu’imparfaitement le réel. De fait l’échantillon n’est généralement pas représentatif et les variables qui le constituent sont, pour partie, des approximations.
Toutefois, une différence notable des machines est que les biais du jeu d’apprentissage peuvent être mesurés et atténués [5]. C’est le cas des biais discriminatoire, potentiellement à l’œuvre avec l’exemple du filtrage de CV. Des solutions algorithmiques plus ou moins satisfaisantes existent, elles ont l’avantage d’être désirées et explicites.
Au demeurant, il est techniquement possible d’aller plus loin encore en alignant les décisions de la machine sur une éthique humaine [6]. Celle-ci sera idéalement issue d’un consensus démocratique tel que prôné par le philosophe Jürgen Habermas dans son éthique de de la discussion. On peut alors parler d’IA éthique par abus de langage.
Au total, recourir aux IA d’aide à décision offre davantage d’objectivité grâce aux données, et une rationalité plus explicite avec l’explicabilité des modèles. Ainsi, il peut être bénéfique de recourir à des machines bien paramétrées et alignées sur des objectifs éthiques, pour aider l’humain à prendre des décisions plus rationnelles et équitables.
Pour autant, que cela soit pour des raisons légales, éthiques ou d’efficience, l’humain doit rester décideur en dernier ressort car la complexité des considérations en jeu dans une décision déborde souvent le jeu de données utilisées par l’IA. Une bonne pratique consiste alors à expliciter les raisons de la remise en cause de la décision algorithmique.
En définitive, sans aller jusqu’à l’optimisme de Yan Lecun, qui voit dans IA l’avènement d’un nouveau siècle des lumières [7], on peut considérer que les systèmes d’aide à la décision basés sur les données sont un vrai levier pour redonner à la raison toute sa place dans les décisions humaines, dans un moment ou la vérité et les faits semblent en perte de vitesse face aux croyances et aux émotions.
Bibliographie
[1] https://www.lemonde.fr/economie/article/2024/08/31/l-intelligence-artificielle-est-une-bulle-il-y-a-un-decalage-entre-les-couts-tres-importants-et-les-revenus-potentiels_6300034_3234.html
[2] Bertolucci, M. (2023). L’homme diminué par l’IA. Hermann
[3] Goglin, C. (2022). L’explicabilité de l’IA: un problème éthique mais pas seulement…. Management & Datascience, 6(1).
[4] Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.
[5] https://theconversation.com/discrimination-et-ia-comment-limiter-les-risques-en-matiere-de-credit-bancaire-167008
[6] Goglin, C. (2023). Proposition of a utilitarianism and fair objective function building method based on values and socio-economic consequences for data-driven decision. In Human interaction & emerging technologies (IHIET 2023): Artificial intelligence & future applications. AHFE (2023) International conference (Vol. 111, pp. 749-755). AHFE Open Access, AHFE International
[7] https://www.liberation.fr/sciences/yann-le-cun-parrain-de-lia-lintelligence-artificielle-conduira-peut-etre-a-un-nouveau-siecle-des-lumieres-20230421_VRHIVXB46BAEVJG5VGZNQEHWSU/