Citation
L'auteur
Mehdi Berrahou
(mehdiberrahou9@gmail.com) - Université d'Aix-Marseille (LEST, CERGAM, AMSE)
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
Soutenues par des avancées algorithmiques et une puissance de calcul accrue (Georges, 2019), les solutions d’intelligence artificielle (IA) ont connu un développement significatif ces dernières années dans le domaine de la santé (Rialle, 2021). En médecine, l’IA est définie comme “une technologie permettant aux machines d’apprendre, de comprendre les données médicales, de réaliser des diagnostics complexes, et d’analyser de vastes ensembles de données de santé pour assister les professionnels de santé” (Pelaccia et al., 2020, p.7).
L’acceptabilité de l’IA en tant qu’innovation suscite des interrogations parmi les professionnels de santé. Malgré la progression de l’IA dans le domaine médical, il existe une disparité dans l’adoption de ces technologies entre les spécialités. Par exemple, la radiologie semble davantage concernée par le déploiement des solutions d’IA, tandis que la médecine générale est négligée (Pakdemirli & Weigner, 2020 ; Stewart et al., 2020).
Pourtant, les médecins généralistes sont la pierre angulaire du système de santé et font face à un manque d’études sur l’impact des solutions d’IA sur leur acceptabilité et leur pratique (Stewart et al., 2020). C’est dans ce contexte que notre étude explore l’acceptabilité de l’IA par les généralistes, en utilisant les concepts d’affordances et de paradoxes.
Notre objectif est de comprendre comment les affordances perçues de l’IA influencent cette acceptabilité, en mettant en lumière les paradoxes susceptibles d’influencer son intégration dans la pratique médicale.
Cette recherche vise à enrichir la littérature, souvent dépourvue d’outils pour décrire la situation des acteurs confrontés à l’introduction d’innovations disruptives en santé (Habib et al., 2017). De plus, elle cherche à s’éloigner des modèles classiques et principalement quantitatifs de l’acceptabilité des systèmes d’information (TAM, UTAUT etc.), qui offrent des résultats ambivalents sur les conditions d’acceptabilité de l’IA. Par une étude qualitative, ce mémoire entend apporter des éléments nouveaux pour mieux comprendre ce phénomène complexe.
Fondements théoriques
L’acceptabilité d’une technologie peut être définie comme les perceptions a priori qu’a un individu d’un système ou d’une technologie, amenant à l’intention de l’utiliser (Tricot et al., 2003). L’acceptabilité touche directement aux scénarios d’usage et à l’affordance perçue, c’est-à-dire “les propriétés perçues et réelles de la chose, et principalement les propriétés fondamentales qui déterminent comment elles peuvent être utilisées” (Norman, 1999). Ainsi, une étude réalisée auprès des gastro-entérologues indique que les scénarios d’usage des solutions d’IA influencent leur acceptabilité par ces professionnels de santé (Goh et al., 2024).
Dans le cas des solutions d’IA en médecine, les affordances sont donc les possibilités d’actions et les bénéfices potentiels que les médecins peuvent percevoir dans l’usage, comme l’amélioration du diagnostic, l’optimisation des traitements ou la gestion efficace des dossiers médicaux. Ainsi, comprendre comment ces affordances sont perçues par les professionnels de santé peut grandement influencer leur acceptabilité et leur adoption des solutions d’IA (Liang et al., 2023). Mais ces affordances peuvent être sources de paradoxes lorsqu’elles sont prises dans leur ensemble. En effet, Ciriello et al. (2019, p. 36) soutiennent que « les artefacts numériques peuvent offrir une gamme d’affordances qui, collectivement, produisent des effets paradoxaux sur les pratiques […] ». Les paradoxes peuvent être définis comme « des éléments contradictoires, mais interdépendants, qui existent simultanément et persistent dans le temps » (Smith & Lewis, 2011). Ces mêmes auteurs proposent de considérer quatre types de paradoxes (d’apprentissage, d’appartenance, de performance et d’organisation). L’identification des paradoxes au niveau des affordances perçues permettraient déjà d’anticiper l’usage ou non de ces solutions d’IA (Chatterjee et al., 2021 ; Ciriello et al., 2019).
A l’aune de ces éléments, nous voyons émerger un triptyque entre affordances, paradoxes et acceptabilité dans le contexte de l’introduction de l’IA auprès des médecins généralistes. Une acceptabilité accrue des solutions d’IA suppose de gérer les affordances de sorte à limiter les paradoxes qui peuvent être générés par l’usage des solutions d’IA. En se basant sur les travaux de Qin (2023), qui mettent au jour l’influence des affordances dans la résolution de paradoxes, nous proposons un cadre conceptuel original permettant de voir si les affordances peuvent générer des paradoxes.
Méthodologie
Pour mener cette étude, nous avons opté pour une méthode de recherche qualitative et exploratoire. Cette méthode a été utilisée dans le but de découvrir ou d’approfondir la compréhension d’un phénomène empirique peu traité dans la littérature. Nous nous sommes également appuyés sur une démarche de raisonnement abductif, dans laquelle nous avons opéré plusieurs allers-retours successifs entre le matériau récolté et la littérature. Par exemple, l’étude qui portait exclusivement sur les médecins généralistes a été étendue aux internes en raison du faible nombre de retours. De plus, des ajustements ont été nécessaires quant à la nature du cadre théorique employé.
Concernant la collecte des données, nous avons donc mené 9 entretiens semi-directifs auprès de médecins généralistes, d’internes, mais aussi auprès du concepteur de la solution d’IA étudiée. Tous ces entretiens se sont déroulés par visioconférence, enregistrés et retranscrits. Pour mener à bien ces derniers, nous avons élaboré trois grilles d’entretiens, une pour chaque population interrogée. Nous avons opéré une analyse thématique du matériau, au travers d’un logiciel de codage intitulé MAXQDA. Ainsi, le corpus a été découpé en termes représentatifs du contenu analysé et en rapport avec notre orientation de la recherche, ce qui nous a permis de produire une grille de codage mêlant codes émergents (E) et à priori (AP) structurée autour de trois concepts principaux : les affordances perçues de l’IA, les paradoxes, et enfin, son acceptabilité.
Principaux résultats
Notre recherche a permis d’identifier l’émergence d’affordances perçues par les médecins généralistes, ainsi que des paradoxes liés à l’usage projeté de solutions d’IA. Les affordances perçues se divisent en deux catégories : positives et négatives.
Les affordances positives incluent les potentialités perçues comme bénéfiques dans l’usage de l’IA. Les médecins voient l’IA comme une opportunité pour réduire leurs erreurs, agissant comme un garde-fou pour maintenir une pratique constante. L’IA est également perçue comme un moyen de suivre le rythme de l’innovation médicale et d’améliorer l’efficacité et la productivité, permettant de traiter plus de patients en moins de temps. De manière surprenante, l’IA est aussi vue comme une solution pour résoudre des diagnostics difficiles, et non pas seulement pour les tâches routinières. Enfin, l’IA est perçue comme offrant plus de liberté, en démocratisant le savoir médical et en rendant plus compréhensible la parole du médecin.
Les affordances négatives englobent les risques et biais perçus associés à l’usage de l’IA. Les médecins craignent que l’IA introduise des biais de sélection et des effets d’ancrage pouvant affecter leurs décisions. Ils s’inquiètent également des discriminations perpétuées par des algorithmes basés sur des données biaisées, et de l’augmentation des erreurs dues à une confiance excessive en l’IA. Une autre préoccupation majeure est la perte de compétences et la paresse liées à une dépendance à l’IA, ainsi que la question de la responsabilité en cas d’erreur de diagnostic ou de traitement inapproprié.
Notre recherche a également révélé plusieurs paradoxes résultant de la contradiction entre les affordances perçues positives et négatives. Ces paradoxes jouent un rôle crucial dans l’acceptabilité des solutions d’IA. Nous avons identifié quatre types de paradoxes, basés sur les travaux de Smith & Lewis (2011).
Les paradoxes d’apprentissage comprennent trois aspects :
- Le paradoxe des erreurs, où l’IA est vue à la fois comme un moyen de réduire et d’augmenter les erreurs.
- Le paradoxe de la formation sélective, où les médecins jugent la formation essentielle pour les autres mais non pour eux-mêmes.
- Le paradoxe de la dépendance technique, où l’IA est perçue comme maintenant ou améliorant les compétences, mais aussi comme pouvant les diminuer.
Le paradoxe organisationnel découle du fait que l’IA promet une meilleure prise en charge du patient et son empowerment, mais peut aussi déshumaniser la relation médecin-patient.
Le paradoxe d’appartenance se manifeste par l’IA, perçue comme une opportunité d’acquérir de nouvelles pratiques, mais aussi comme une menace pour les pratiques existantes. Un autre paradoxe d’appartenance concerne l’IA de dépistage précoce, perçue comme aidant le patient tout en soulevant des questions éthiques sur la divulgation d’une future maladie.
Pour finir, deux types de paradoxes de performance ont été identifiés :
- Le paradoxe du coût d’intégration de l’IA, vue comme une amélioration d’efficacité mais chronophage dans sa prise en main.
- Le paradoxe de confiance en l’IA, où les médecins pensent pouvoir lui faire confiance pour corriger leurs pratiques, mais estiment aussi devoir corriger celles de l’IA.
Impact et utilité
Nos travaux de recherche mettent en lumière la nécessité de compléter les connaissances des médecins généralistes sur l’étendue des possibilités qu’offre l’IA, pour les soutenir dans leurs pratiques. De plus, notre étude révèle l’asymétrie entre les spécialités médicales concernées par l’IA (Pakdemirli & Weigner, 2020). En effet, les médecins généralistes font peu l’expérience de l’IA, hormis en radiologie. L’augmentation de cette potentialité pourrait aboutir à l’émergence de nouvelles affordances, qui pourraient actualiser celles déjà existantes, et peut-être rééquilibrer le rapport entre les affordances positives et négatives afin d’en limiter les paradoxes perçus, ce qui améliorera l’acceptabilité.
Notre recherche révèle également les conditions d’acceptabilité de l’IA auprès des médecins généralistes : la co-construction de l’outil avec les médecins, l’existence d’outils complémentaires, la disponibilité de spécialistes pour le suivi après l’annonce d’une maladie neurodégénérative, ou encore la validation de l’outil par des instances reconnues, qui sont des conditions sine qua non pour les médecins généralistes. Nous avons donc pu mettre en lumière la nécessité d’impliquer les professionnels de santé dans le développement des solutions d’IA, afin de favoriser leur intégration. Il est également essentiel d’augmenter la formation technique des médecins généralistes sur les possibilités qu’offre l’IA. Par ailleurs, un lien fort entre compréhension du fonctionnement technique (Simondon, 1958) et acceptabilité semble ressurgir dans notre recherche.
La question se pose désormais de voir ce qu’il en sera lorsque la solution d’IA étudiée sera déployée auprès des généralistes avec le phénomène d’actualisation des affordances qui doit faire l’objet d’une recherche complémentaire.
Recommandations
Il est crucial d’adopter une approche collaborative dans le développement et la mise en œuvre des systèmes d’IA en santé. Impliquer activement les médecins dès les premières phases de conception permet de répondre précisément à leurs besoins et préoccupations spécifiques, favorisant ainsi une meilleure intégration des technologies nouvelles et complexes dans leur pratique quotidienne. Cette collaboration pourrait réduire les paradoxes identifiés dans notre recherche en alignant les fonctionnalités perçues des solutions d’IA avec les attentes réelles des professionnels de santé.
En outre, une formation technique approfondie sur l’IA est essentielle pour les médecins généralistes. Comprendre le fonctionnement, les limites et les possibilités des solutions d’IA est crucial pour maximiser les avantages potentiels tout en minimisant les risques associés à leur utilisation. Cette culture technique renforcerait la confiance des médecins dans ces outils, favorisant ainsi une utilisation efficace de l’IA tout en limitant les risques d’aliénation (Simondon, 1958).
Pour soutenir cette démarche, il est envisagé de développer un référentiel de compétences pour les médecins généralistes en matière d’IA. Ce référentiel permettrait que les médecins disposent des compétences minimales pour intégrer de manière optimale l’IA dans leur pratique, tout en minimisant les risques pour les patients et en améliorant la qualité des soins. Une telle approche leur permettrait d’utiliser ces technologies en toute connaissance de cause, réduisant ainsi le risque d’aliénation dans leur pratique.
Conclusion
L’objectif de notre recherche était de comprendre l’acceptabilité des solutions d’IA par les médecins généralistes français, notamment dans le contexte d’une IA spécialisée pour le dépistage précoce des maladies neurodégénératives.
Notre étude a caractérisé les affordances perçues, identifié les paradoxes générés, et recherché les conditions pour améliorer l’acceptabilité.
Notre méthodologie repose sur une étude exploratoire qualitative avec neuf médecins généralistes, utilisant une approche abductive pour développer un cadre conceptuel intégrant affordances, paradoxes et acceptabilité.
Cette recherche enrichit la littérature en proposant un cadre théorique original pour étudier l’acceptabilité de l’IA en médecine générale, dépassant les modèles classiques comme le TAM. En explorant les affordances perçues, elle révèle des potentialités positives et négatives, générant des paradoxes cruciaux pour l’intégration de l’IA.
Des perspectives futures incluent une étude longitudinale sur l’évolution des affordances perçues, l’extension à d’autres solutions d’IA, et une réflexion continue sur l’impact éthique et professionnel de l’IA en médecine générale.
Bibliographie
- Chatterjee, S., D Moody, G., Lowry, P.B., Chakraborty, S. and Hardin, A. (2021), « The nonlinear influence of harmonious information technology affordance on organisational innovation », Information Systems Journal, Vol. 31 No. 2, pp. 294-322.
- Ciriello, R. F., Richter, A., & Schwabe, G. (2019). “The paradoxical effects of digital artefacts on innovation practices”. European Journal of Information Systems, 28(2), pp. 149–172.
- Georges, B. (2019). “Intelligence artificielle : de quoi parle-t-on ?”, Constructif, 54, pp. 5-10.
- Goh, W. W., Chia, K. Y., Cheung, M. F., Kee, K. M., Lwin, M. O., Schulz, P. J., Chen, M., Wu, K., Ng, S. S., Lui, R., Ang, T. L., Yeoh, K. G., Chiu, H. M., Wu, D. C., & Sung, J. J. (2024). ” Risk perception, acceptance, and trust of using AI in gastroenterology practice in the Asia-Pacific region: Web-based survey study.” JMIR AI, 3
- Habib, J., Béjean, M. & Dumond, J. (2017). Appréhender les transformations organisationnelles de la santé numérique à partir des perceptions des acteurs. Systèmes d’information & management, 22, 39-69.
- Liang, S. Z., Chang, C. M., & Huang, C. H. (2023). Impact of AI Affordance on AI Adoption: The Mediating Role of Self-Monitoring and Uniqueness. International Journal of Human–Computer Interaction, pp. 1–12.
- Norman, D.A. (1999) Affordance, Convention, and Design. ACM, New-York
- Pakdemirli, E., & Wegner, U. (2020). Artificial Intelligence in Various Medical Fields With Emphasis on Radiology: Statistical Evaluation of the Literature. Cureus, 12(10).
- Pelaccia, T., Forestier, G., Wemmert, C., Une intelligence artificielle raisonne-t-elle de la même façon que les cliniciens pour poser des diagnostics ?. La Revue de Médecine Interne, 2020, 41, pp.192 – 195.
- Qin, R. (2023), « Overcoming the digital transformation paradoxes: a digital affordance perspective », Management Decision.
- Rialle, V. (2021). Du rêve technoscientifique d’hier aux réalités d’aujourd’hui : l’intelligence artificielle pour la santé entre horreur et enchantement. Droit, Santé et Société, 2, pp. 28-35.
- Simondon, G. (1958). Du mode d’existence des objets techniques. Paris: Aubier.
- Smith W. K. et Lewis M. W. (2011), “Toward a theory of paradox: A dynamic equilibrium model of organizing”, Academy of Management Review, 36 : pp. 381–403.
- Stewart, J. E., Rybicki, F. J., & Dwivedi, G. (2020). Medical specialties involved in artificial intelligence research: Is there a leader? Tasman Medical Journal, 2(1), pp. 20-27.
- Tricot, A., Plégat-Soutjis, F., Camps, J.-F., Amiel, A., Lutz, G., & al. (2003). Utilité, utilisabilité, acceptabilité : interpréter les relations entre trois dimensions de l’évaluation des EIAH. Environnements Informatiques pour l’Apprentissage Humain, 2003, Strasbourg, France pp. 391-402.
Crédits
Mémoire dirigée par :
- Madame Johanna Habib – Professeure des universités en sciences de gestion (CERGAM)
- Madame Cathy Krohmer – Maîtresse de conférences HDR en sciences de gestion (LEST)
- Monsieur Bruno Ventelou – Directeur de recherche en économie (AMSE-CNRS)
il ne peut pas avoir d'altmétriques.)
Nb. de commentaires
0