Citation
L'auteur
Sylvie Gerbaix
(macsylvie@orange.fr) - (Pas d'affiliation)
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
Cette contribution est une synthèse légèrement actualisée et reformatée de la communication qui fut sélectionnée pour être présentée en session publique lors de la « french session » de la conférence ICTO2023 qui a eu lieu à Paris à la Sorbonne les 4, 5 et 6 juillet 2023 et qui donna lieu à la présentation de 7 communications rédigées et présentées en français réparties sur deux sessions de deux heures programmées les 5 et 6 juillet.
Les systèmes algorithmiques d’intelligence artificielle (IA) peuvent-ils être tenus pour responsables ou plutôt redevables des effets indésirables qu’ils provoquent. Cette question se pose d’autant plus que ces systèmes concernent maintenant tous les domaines et que leur puissance et leurs potentialités se trouvent décuplées.(Le Cun, 2019 ; Quinio B., Bidan M., 2023).
Ces systèmes semblent soulever trois principales questions éthiques (Hamet et Michel, 2018 ; Michel, et al.2023) : la question des biais, la question de la responsabilité et celle de la transparence. Il s’agit par exemple des biais de discrimination liés aux critères inclus dans les algorithmes ou de la responsabilité des accidents imputés à des voitures ou autres systèmes autonomes, ou de la transparence demandée à l’égard des décisions opérées.
Veiller à la pleine-responsabilité, à la non-discrimination, à la transparence de ces systèmes est un objectif majeur de l’enjeu de redevabilité.
Le terme de redevabilité est la traduction française (dans la norme ISO 26000 (2010)) du terme « accountability », c’est-à-dire le fait de rendre compte des effets causés (Capron, 2016). Cette notion complète la notion de transparence qui concerne plus spécifiquement l’accessibilité des informations. Cette redevabilité inclut deux composantes : « le respect de règles notamment juridiques ou éthiques, d’une part ; la nécessité de rendre intelligible la logique sous-jacente au traitement, d’autre part » (Le Métayer et al., 2017). Le terme « redevabilité » renvoie ainsi également aux notions d’intelligibilité et d’ « explicabilité ».
L’objectif est ici de proposer une réflexion sur cette “redevabilité” des systèmes d’intelligence artificielle et les obstacles à sa mise en œuvre au travers de deux défis majeurs la myriade d’acteurs humains et non humains impliqués et la complexité des questions éthiques des systèmes algorithmiques.
Les défis d’une redevabilité fractionnée entre une myriade d’acteurs humains et non-humains
Les systèmes algorithmiques et par conséquent leur redevabilité impliquent une myriade d’acteurs : acteurs humains de la conception et de l’utilisation, mais également acteurs non humains que sont les logiciels et équipements, qui in fine contribuent aux décisions prises et qui sont démultipliés dans le cas de l’I.A.
Le défi de la non-neutralité des systèmes algorithmiques, acteurs à part entière.
S’agissant des systèmes algorithmiques certains auteurs (Shaw, 2003 ; Chatterjee et al., 2009 ; Light et McGrath, 2010 ; Malhotra et al., 2013) appellent à adopter une approche d’éthique révélatrice (disclosive ethics) considérant les algorithmes comme un acteur à part entière, et visant à dévoiler les questions éthiques posées par leur conception, et utilisation. Cette approche fait également l’objet d’un courant de recherche émergent en éthique de l’informatique (Brey, 2000). Stahl (2004) note l’importance d’attribuer des responsabilités, notamment compte tenu de la gravité des conséquences potentielles d’une erreur produite.
Le défi de la dilution de la responsabilité
Une dilution de la responsabilité est induite par la multiplicité, le fractionnement, et la distanciation entre les acteurs du système algorithmique et constitue un défi pour la redevabilité du système. Ainsi, par exemple, une dilution de la responsabilité est induite par une scission, dans la prise de décision, entre les développeurs, qui estiment remplir leur devoir en respectant strictement les demandes qu’ils reçoivent, et le management, qui ne s’estime pas responsable des failles liées à la technologie. De plus, ces développeurs ne sont généralement pas face à face avec les parties prenantes dont ils affectent la prise de décision (Introna, 2002).
Le défi de la transparence des systèmes algorithmiques complexes et évolutifs, acteurs non-humains auto-apprenant via des données massives
La redevabilité et l’attribution de responsabilité se trouvent confrontée à des systèmes algorithmiques complexes, acteurs non-humains auto-apprenant via des données massives. En effet, les potentialités accrues des « intelligences artificielles » trouvent leur origine dans les programmations fondées sur les « grands modèles de langage » (LLM, Large language model) de réseaux de neurones et d’apprentissage profond (« deep learning »), conjugués avec la massification des données disponibles notamment via internet (Le Cun, 2019).
Ensuite, cette question de la redevabilité se pose tout au long de la chaîne de la saisie des données à leur traitement, aux résultats et aux décisions qui en découlent.
Les clefs de la complexité (E. Morin) face aux défis de la redevabilité des systèmes d’intelligence artificielle
Les principes d’E. Morin pour penser la complexité ouvrent des perspectives pour les questions éthiques soulevées par les systèmes algorithmiques (Morin, 1986) (Michel et al. 2023).
Face à la question éthique des biais, le principe « hologrammatique » invite à une prise de conscience de la non-neutralité éthique des systèmes algorithmiques qui intègrent inéluctablement les valeurs et les biais de leurs concepteurs et de la société. Car, la complexité d’un ensemble organisé « nécessite l’inscription (engrammation) du tout (hologramme) dans chacune de ses parties pourtant singulières ». (Morin, 1986). Ainsi, ce principe conduirait à faire en sorte qu’une sensibilisation généralisée à l’éthique et aux dérives potentielles de ces systèmes soit dispensée notamment auprès des acteurs du système.
Le principe “dialogique” invite à se confronter aux dilemmes éthiques et à la question de la responsabilité qui en résulte afin de chercher des solutions qui visent, dès la phase de conception, à intégrer leurs composantes complémentaires et contradictoires.
Le principe de récursivité organisatrice rejoint la question de la « transparence » du système, car ce principe invite à une analyse systémique pour rendre compte des effets induits, puis à réintroduire dans le système des modifications pour en rectifier les dérives. De plus, la métaphore du tourbillon illustrant ce principe de récursivité se retrouve avec le système algorithmique qui devient auto-apprenant et auto-producteur.. mais acteur a priori sans conscience de la nécessaire redevabilité.
Conclusion
En conclusion, alors même que les enjeux éthiques et les déviances potentielles de ces systèmes sont patents, cette contribution initie une réflexion sur la redevabilité des systèmes « d’intelligence artificielle » et les difficultés de sa mise en œuvre. Deux types d’obstacles sont mis en relief : la distanciation entre une myriade d’acteurs humains et non-humains et la complexité inhérente aux systèmes algorithmiques. Dès lors, les principes d’Edgar Morin pour penser cette complexité ouvrent des perspectives pour relever ces défis.
Bibliographie
Brey, P. : Disclosive Computer Ethics: The Exposure and Evaluation of Embedded Normativity in Computer Technology”, Computers and Society, Vol. 30, n°4, 10-16. (2000).:
Capron M., : Le concept de redevabilité au cœur de la relation entreprise-société. In RIODD, Saint-Etienne, France (2016)
Chatterjee S, Sarker S & Fuller M.: Ethical Information Systems Development: A Baumanian Postmodernist Perspective, Journal Of The Association For Information Systems, 787-815. (2009).
Hamet J., Michel S. Les questionnements éthiques en système d’information, Revue française de gestion, n°271, p. 99 à 129, Editions Lavoisier. (2019)
Le Métayer D., Inria, Université de Lyon, Desmoulin-Canselier, S. CNRS, Université de Nantes. https://www.lemonde.fr/blog/binaire/2017/12/16/algorithmes-au-dela-de-la-transparence-la-redevabilite/
Introna L. D. The (im)possibility of ethics in the information age, Information and organization, vol. 12 n° 2, 71-84. (2002).
Le Cun Y., Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond, Editions Odile Jacob, 394 p. , (2019).
Light B., McGrath K. : Ethics and social networking sites: a disclosive analysis of Facebook. Information, Technology & People, vol. 23, n° 4, 290-311. (2010).
Malhotra A., Melville N.P. & Watson R.T.: Spurring Impactful Research on Information Systems for Environmental Sustainability , MIS Quarterly, vol. 37, n° 4, 1265-1274,(2013).
Michel S., Gerbaix S., Bidan M. : Point de vue : questionnement éthique des systèmes algorithmiques, Vol. 12, n°50, RIMHE, Revue Interdisciplinaire Management, Homme & Entreprise – Management & Human Enterprise (2023)
Morin, E. La méthode, Editions du Seuil, (1977-2008).
Quinio B., Bidan M. Avis d’experts : ChatGPT : Un robot conversationnel peut-il enseigner ? Management &Datascience, Vol.7. n°1 – https://managment-datascience;org/articles/22060/ (2023)
Shaw T.R. : The Moral Intensity of Privacy: An Empirical Study of Webmasters Attitudes, Journal of Business Ethics, vol 46, n° 4, 301-318. (2003).
Stahl B. C. : Information, ethics, and computers: The problem of autonomous moral agents », Minds and Machines, vol. 14, n° 1, 67-83. (2004).