Citation
L'auteur
Meriem Hizam
(meriem.hizam@univ-nantes.fr) - Laboratoire LEMNA - Nantes Université / GEM-R - Grenoble Ecole e Management
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
L’impact du progrès technique sur l’évolution de la prise de décision
Prendre une décision, revient à renoncer… Renoncer à des choix qui ont été possibles, et dont on n’avait pas la certitude de maitriser irréprochablement les avantages et les inconvénients, pour juger de la nature optimale du choix retenu. Décider c’est tout simplement sélectionner une alternative satisfaisante parmi les alternatives qui se sont présentées, en tenant compte de nos limites cognitives… Parce que oui, notre cerveau a des limites, de mémorisation, d’assimilation, de calcul et d’adaptation au changement.
L’humain étant toujours à la recherche de la meilleure version de lui-même, – et capitalisant sur les capacités de calcul des machines de plus en plus surprenantes, sur la vélocité, la variété, et le volume de données qui ne cessent de se multiplier, et sur la sophistication évolutive des algorithmes – se challenge depuis les années 50, pour créer des programmes capables de restituer certaines formes d’intelligence nommée artificielle, en émulant le fonctionnement du cerveau (McCarthy, 1959). Qui paradoxalement demeure l’organe le plus mystérieux de l’homme, parce que c’est la seule partie humaine qui s’auto-analyse. Il a fallu passer par plusieurs hivers de l’intelligence artificielle (IA) pour arriver à son printemps avec le progrès que nous connaissons ces dernières décennies.
Bien que nous soyons à l’ère de l’IA qui révolutionne aujourd’hui le fonctionnement des organisations au niveau mondial, peu de personnes maitrisent les différents aspects liés à cette technologie prometteuse mais inquiétante. Une inquiétude justifiée par l’opacité de l’IA, son potentiel déstabilisant, notamment lorsque nous évoquons l’IA forte qui serait selon l’estimation des chercheurs capable de reproduire une conscience et d’agir de manière autonome. Cette IA forte est divisée en deux catégories : une IA générale : qui dépassera les capacités humaines grâce à son potentiel polyvalent apte de transférer les compétences d’un domaine à l’autre en toute autonomie et conscience. Et la super IA qui promet des réalisations qui ont fait auparavant référence à la science-fiction (Ng & Leung , 2020). Cette super IA serait capable de télécharger un esprit, de transférer une conscience, ou encore augmenter les capacités cognitives des humains moyennant une sélection génétique.
Évoquer cet énorme potentiel, à l’ère de l’exploitation actuelle limitée à l’IA faible ou étroite qui apprend moyennant un entrainement sur une énorme base de données (Wei, 2019), rend la majorité des individus partagés entre l’inacceptabilité, le déni, le rejet, la résistance, et la peur… Parce que l’IA que nous connaissons aujourd’hui est capable de faire la tâche pour laquelle elle a été entrainée et ne dispose pas de la capacité de transposition des compétences sur d’autres champs. D’ailleurs la quasi-totalité des programmes d’IA qui sont sur le marché utilisent de l’IA faible, et les chercheurs estiment l’apparition de l’IA forte en 2045, qui donnera naissance juste après la super IA.
Des enjeux, défis et opportunités liés à l’intervention des outils d’IA dans la fabrique de la décision
Tout ce potentiel de l’IA a implicitement ou explicitement pour objet l’aide à la prise de décision, voire la prise de décision dans certains cas… Parce que les algorithmes de l’IA, qu’ils soient en apprentissage supervisé, non supervisé, ou par renforcement répondent à des problématiques descriptives, prédictives, ou prescriptives. Ces problématiques sous leurs différentes formes offrent à l’humain un atout considérable pour l’aider dans la prise de décision qu’il est amené à faire au quotidien, sur le plan professionnel comme sur le plan personnel. En lui permettant de comprendre le passé pour estimer son impact sur le présent ou le futur (capacités descriptives), estimer la probabilité de résultat futur (capacité prédictive), ou encore suggérer des actions à entreprendre (capacité prescriptive). L’IA étant une arme à double tranchant, elle ne représente pas que des avantages, son côté sombre impose une réflexion approfondie avant son adoption / utilisation.
Nous considérons paradoxalement l’IA comme une technologie émergente, dont le fonctionnement échappe parfois à la compréhension humaine (Zarsky,2016), un point qui peut représenter un vrai blocage : Si nous nous appuyons sur l’IA pour nous aider dans la prise de décision, comment pouvons-nous assumer notre incompréhension du processus décisionnel suivi ? Comment pouvons-nous expliquer à nos parties prenantes, surtout en cas de traitement défavorable la décision prise ? et comment être certains de l’équité de traitement ? Tant de questions pour lesquelles nous n’avons pas de réponses complètement satisfaisantes, et pour lesquelles le traitement est fait au cas par cas, parce que les enjeux liés à l’explicabilité de l’IA peuvent être cruciaux dans certains cas d’usage et peuvent être secondaires dans d’autres cas notamment lorsque l’impact est minimal et ne touche pas à l’intégrité et la dignité de l’individu… Des solutions ont émergé avec l’IA explicable, et la mobilisation d’algorithmes d’IA qui sont conçus pour interpréter la logique d’autres algorithmes d’IA comme SHAP ou LIME… comment leur faire confiance si nous ne comprenons pas comment ces algorithmes interprètes fonctionnent non plus ? Une touche de complexité qui vaut le coup d’être prise en compte selon le contexte.
L’explicabilité n’est pas le seul challenge auquel l’IA est confrontée. La responsabilité est une dimension évoquée souvent lorsque nous parlons de (aide à) la prise de décision. Il est d’ailleurs assez délicat de définir la frontière entre la prise de décision et l’aide à la prise de décision, si une IA nous suggère de faire l’action A, est ce qu’elle a décidé pour nous ? ou bien il nous a juste aidé dans la prise de décision ? Si j’autorise à l’IA d’interpréter une radiologie et que mon rôle de médecin est de valider ensuite le rapport de l’IA, puis-je dire qu’elle m’a juste aidé à la prise de décision ? ou bien qu’elle a décidé du diagnostic du patient ? la définition du périmètre et de la marge de l’IA est cruciale pour cadrer son usage et son adoption réussie.
De la question de la responsabilité à la redevabilité des outils d’IA et de leurs biais
Les systèmes algorithmiques soulèvent diverses problématiques éthiques, nécessitant une approche attentive et globale pour les aborder (Michel, Gerbaix, et Bidan, 2023). Parler de la responsabilité suscite l’intérêt des chercheurs, des législateurs et des experts. Une IA n’étant pas une personne physique ou morale, elle ne peut pas assumer la responsabilité de ses actes, même dans le cadre d’une erreur grave entrainant des conséquences catastrophiques. Si nous prenons l’exemple de l’interprétation de radiologie, et nous stipulons que l’IA se trompe en faisant le diagnostic et que cela impacte fortement la santé physique d’un patient… qui assumera la responsabilité ? Le médecin ayant validé le diagnostic ? la personne ayant fait la conception de cette IA ? la personne ayant collecté les données d’entrainement ? ou encore la personne ayant fait les tests de cette IA ? Un dilemme éthique dont le positionnement est loin d’être aligné à l’unanimité… La nouvelle règlementation de l’IA « IA Act » stipule que la responsabilité est assumée par le fournisseur des systèmes d’IA, mais si nous souhaitons utiliser cette technologie de manière responsable nous nous devons d’aller au-delà de la simple conformité, qui représente des limites justifiées par la vitesse à laquelle les technologies d’IA évoluent et qu’on verra progresser encore plus rapidement à l’ère des ordinateurs quantiques qui deviendront facilement accessibles dans les prochaines années… Cette évolution est difficile à suivre au niveau réglementaire et légale ; la réflexion, la proposition, le vote et l’adoption d’une loi est une démarche qui nécessite un temps conséquent, avec un risque d’obsolescence liée à l’apparitions de nouvelles techniques d’IA.
Nous pouvons aborder le troisième point qui nous semble important en parlant d’IA dans la prise de décision, celui de la transmission des biais humains à la machine… Bien que les biais ne soient pas une caractéristique péjorative de l’homme, parce que nos biais font de nous ce que nous sommes, être conscient de ses biais et faire en sorte de les minimiser rend les décisions plus équitables et plus éthiques… Il n’est pas surprenant que les biais humains soient transmissibles aux algorithmes même au détriment des meilleures intentions… pouvant ainsi donner lieu à des programmes d’IA, sexistes, racistes, etc… Cependant, l’IA actuelle n’ayant pas de conscience, sa compréhension purement mathématique et statistique ne fait que reproduire le système dans lequel elle a évolué en identifiant les corrélations et les caractéristiques de sa base d’apprentissage pour répondre à un objectif donné. La diversité des équipes dans les différentes phases de mise en place d’un système d’IA pourrait aider pour la minimisation des biais pour un traitement plus équitable des données.
Les enjeux sont multiples dans le cadre d’une prise de décision augmentée ou déléguée à l’IA, nous avons évoqué les éléments clés qui nous semblent nécessaires à partager, plusieurs autres dimensions sont à explorer et à analyser, qu’elles soient liés à l’explicabilité comme nous avons exploré partiellement, à la gestion de projet, à l’incertitude, aux données, ou qu’elles soient stratégique, techniques, organisationnelles, éthiques et culturelles… Analyser ces dimensions revient à prévenir les échecs et identifier les pistes pertinentes d’action préventive et corrective.
Une grille de lecture selon la structuration de la décision organisationnelle augmentée par l’IA
La prise de décision a évolué grâce à l’IA, nous disposons aujourd’hui de capacités analytiques surprenantes qui nous permettent de prendre en compte des variables et des liens qui peuvent paraitre de premier abord inconséquents pour notre décision… Décider consiste en la capacité de l’individu à : 1) définir la problématique à laquelle nous souhaitons trouver une solution ou encore à identifier une opportunité à saisir, pour ensuite 2) générer des idées de solutions ou alternatives possibles pour répondre à notre besoin, et la dernière étape est 3) le choix de la meilleure alternative en tenant compte du poids d’importance des critères d’arbitrage pour le choix de la solution retenue…. Les 3 étapes citées remontent aux années 60 du modèle de prise de décision proposé par Simon, 1960.
Lors de la prise de décision augmentée par l’IA il convient d’analyser les 3 étapes citées pour comprendre leur nature (structurée ou non structurée), une étape structurée est une étape dont le processus est clairement défini et maitrisé, alors qu’une étape non structurée est une étape qui manque de processus partiellement ou totalement défini pour son atteinte et dont la maitrise est partielle ou imprévisible… Nous pouvons donc nous retrouver avec différentes combinaisons :
- Une décision structurée : Dont les trois étapes sont clairement définies et qui est facilement automatisable sans forcément faire recours à l’IA
- Une décision semi-structurée : Dont au moins une des trois étapes est clairement définie et que l’IA peut venir renforcer et optimiser
- Une décision non structurée : Dont les trois étapes ne sont pas clairement définies et que l’IA peut optimiser dans certaines limites.
Dans le cas des activités managériales et organisationnelles, cette grille de lecture peut s’avérer pertinente pour cadrer et classer les décisions, avant de penser leur augmentation ou leur délégation au travers des outils d’IA, mais elle n’est évidemment pas suffisante. La compréhension et l’assimilation du potentiel technique de l’IA, sa performance et la vérification de son alignement avec le cas d’usage défini est une étape cruciale pour déterminer la fiabilité et augmenter les chances de réussite d’un projet d’intelligence artificielle. Au regard des recherches, des retours d’expérience et du cadre règlementaire actuellement applicable, il semble néanmoins se dégager un consensus sur le fait que l’humain – et non pas la machine – doit pouvoir garder la responsabilité – la charge – de la décision finale. La question de l’augmentation – plus que celle de la délégation – reste donc celle qui devrait nous préoccuper encore quelques temps !
Bibliographie
McCarthy, J. (1959). Programs with common sense.
Michel, S., Gerbaix, S., & Bidan, M. (2023). Questionnement éthique des systèmes algorithmiques. RIMHE: Revue Interdisciplinaire Management, Homme (s) & Entreprise, (1), 105-116.
Ng, G. W., & Leung, W. C. (2020). Strong artificial intelligence and consciousness. Journal of Artificial Intelligence and Consciousness, 7(01), 63-72.
Simon, H. A. (1960). The new science of management decision.
Wei, L. (2019, April). Legal risk and criminal imputation of weak artificial intelligence. In IOP conference series: materials science and engineering (Vol. 490, No. 6, p. 062085). IOP Publishing.
Zarsky, T. (2016). The trouble with algorithmic decisions: An analytic road map to examine efficiency and fairness in automated and opaque decision making. Science, Technology, & Human Values, 41(1), 118-132.