Citation
Les auteurs
Hasmiou DIALLO
(madhasmiou33@gmail.com) - (Pas d'affiliation)Karim SAÏD
(karim.said@uvsq.fr) - (Pas d'affiliation)
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
L’utilisation d’IA générative dans de nombreux secteurs d’activités, dont la banque, l’assurance, l’industrie, la médecine, l’éducation ou l’agriculture (Zouinar, M., 2020 ; Berente et al., 2021), pose de sérieuses interrogations tant sur son usage que sur le management de ses risques.
L’IA, devenue indispensable pour l’amélioration de la productivité et l’efficacité des processus de travail au sein des organisations (Hennebert et Bourguignon, 2021), transforme profondément les métiers des ressources humaines.
Du fait de la croissance exponentielle des données, la direction RH des entreprises utilisent des systèmes d’IA, tels que le langage naturel, le machine learning, les modèles génératifs et/ou linguistiques (LLMs), pour effectuer de multiples tâches professionnelles : par exemple, sélectionner des cv sur des plateformes, classer des emplois par type et par catégorie, évaluer la rémunération des employés et leur niveau de satisfaction, analyser leur qualité et conditions de vie au travail, étudier les documents juridiques et leurs clauses,….
Ces tâches, épuisantes manuellement, se font désormais par l’IA avec une efficacité et un gain de temps impactant significativement le rôle stratégique de la direction RH au sein des organisations (Hennebert et Bourguignon, 2021), bien que la valeur ajoutée des métiers RH réside exclusivement dans leur expertise humaine et leur capacité à avoir un esprit critique, un regard humain, plus pointu que les technologies de l’IA.
Ces objectifs stratégiques, organisationnels et managériaux sont ainsi désormais construits à partir des réalités technologiques de leur environnement, malgré que ces systèmes d’IA représentent de nombreux défis en termes de fiabilité, d’éthique et de sécurité de données.
Partant de constat, nous proposerons d’étudier la question suivante : en quoi le management des risques liés à l’IA devient un enjeu stratégique pour la direction RH des entreprises ?
Pour ce faire, nous mettrons dans un premier temps en exergue l’utilisation pratique de l’IA générative dans la direction RH. Avec des exemples de cas, nous expliquerons l’impact de celle-ci sur l’organisation en termes métier, organisationnel et managérial.
Puis, dans un second temps, nous montrerons la manière dont ces risques sont gérés à chaque niveau.
Utilisation de l’IA générative et ses différents impacts dans la direction RH
Dans cette partie, nous mettons en exergue l’utilisation pratique de l’IA générative et ses impacts/risques dans les métiers des ressources humaines en entreprise.
Utilisation pratique de l’IA générative dans la direction RH
En 1956, Marvin Minsky caractérisait l’IA comme étant « la construction de programmes informatiques capables d’accomplir des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisantes par des êtres humains. » (Georges, B., 2019).
L’IA générative fait référence aux modèles d’IA qui sont capables de générer du contenu : texte, musique, vidéos, images ou code (Blier, L., 2017). L’IA générative apparait en effet comme une solution de simplification pour l’humain et pour les organisations (Raisch & Krakowski, 2021) : c’est le cas, en ressources humaines, avec les applications, tels que Empower by Ringover, Factorial AI, Effy AI, Beamery, Neobrain, Zavvy, ChatGTP, intégrées comme outil de gestion, de recrutement, de contrôle et d’amélioration de performances.
L’IA modifie le processus et les pratiques RH habituelles, auparavant fastidieuses dans la recherche de candidats. Dans ces directions, l’outil d’IA générative Beamery, par exemple, est ainsi utilisée pour rechercher des profils, impartialement, en supprimant les biais cognitifs.
Avec la mise en place de tels logiciels, les équipes RH n’interviennent plus qu’en début et fin de processus de recherche, définissant tout d’abord les besoins de recrutement, en termes de compétences, années d’expérience ou mots clés – constituant ainsi un ensemble de données de recherche utilisées par les algorithmes sur les sites de recrutements spécialisés tels qu’Indeed ou Apec, sur les plateformes d’emploi et de réseaux professionnels comme LinkedIn, ainsi que sur les cv-thèques et profils en ligne, afin de générer les profils en adéquation avec le poste – puis finalement en identifiant les profils susceptibles de correspondre à leur recherche.
L’IA accélère ainsi le processus de recrutement.
De même, dans la gestion des talents et planification de backup, les équipes RH et managers utilisent, par exemple Effy AI ou Neaobrain comme outil d’IA générative, pour identifier et analyser les compétences, centres d’intérêts et attentes professionnelles des employés, dans le cas notamment de démissions ou changements internes de poste.
L’IA générative oblige les managers à réorganiser leurs équipes (Kolbjørnsrud et al., 2016), automatisant les tâches répétitives (Raisch & Krakowski, 2021) afin que les collaborateurs se concentrent sur des activités ayant davantage de valeur ajoutée (Gregory et al., 2021 ; Wilson & Daugherty, 2018) ou nécessitant une expertise humaine.
Par ailleurs, si l’IA générative est considérée comme performante, elle présente néanmoins des limites (Raisch & Krakowski, 2021) : ses modèles sont en effet restreints aux données textuelles avec lesquelles ils ont été formés, ce qui peut générer des biais conduisant à des risques importants.
Impact Métier
La direction RH accélère la transformation de l’entreprise via l’intelligence artificielle dans l’ambition de rester compétitive et devenir plus performante dans les métiers des ressources humaines, notamment en termes de recrutement, gestion des compétences, formation, gestion des carrières, paie, contrats.
L’utilisation de l’IA dans la direction RH fait évoluer le positionnement et les choix stratégiques de l’entreprise, développant ses compétences et ses pratiques, en intégrant en amont les enjeux humains à partir de leurs déterminants stratégiques puis en construisant et déployant des actions de développement, d’amélioration et de renforcement des activités quotidiennes impliquant les managers, les responsables métiers ou opérationnels et tous les collaborateurs pour que l’entreprise soit pleinement innovante en termes de stratégie de recrutement et de gestion des ressources humaines.
En aval, les systèmes d’IA déployées permettent de veiller à ce que la mise en œuvre des actions stratégiques, des compétences acquises des collaborateurs soient effectives et répondent aux attentes de l’entreprise.
L’utilisation des technologies de l’IA conduirait à créer une proximité RH avec, d’une part, les opérationnels et collaborateurs et, d’autre part, le monde extérieur : demandeurs d’emploi, plateformes et cabinets de recrutement, partenaires tels que France Travail (ex. pôle emploi) par exemple.
L’IA dans la direction RH n’ayant pas seulement pour but de sélectionner les meilleurs candidats en ligne, de simuler des entretiens numériques d’embauche, de catégoriser les offres d’emploi sur le marché, elle est aussi un outil stratégique :
- d’évaluation de la qualification des employés qui réussissent à un poste particulier,
- d’évaluation des niveaux de salaires en fonction des compétences des collaborateurs,
- d’étude et d’interprétation de la pertinence des documents juridiques notamment en termes de veille législative pouvant impacter la stratégie de l’entreprise.
Elle sert de plus d’outil de mise à jour des contrats de travail, d’apprentissage et de professionnalisation, ainsi que de recherche de partenariats commerciaux pour la croissance et la diversité de l’entreprise.
Parlant de diversité en entreprise, de nombreux chercheurs pensent que, quand les algorithmes de l’IA sont bien conçus, ils réduisent les discriminations basées sur l’origine, le sexe et l’âge du collaborateur en éliminant les préjugés (Yano, 2017; Jia et al., 2018; Lengnick Hall et al., 2018), et ainsi que les transformations induites par les technologies de l’IA doivent fusionner avec la stratégie et la culture organisationnelle de l’entreprise (Jacob, S., et al., 2022) pour éviter d’éventuels impacts et/ou risques discriminatoires.
Les outils d’IA, utilisés pour évaluer la performance de la direction RH, font partie intégrante du renforcement de la stratégie commerciale numérique, de la stratégie de positionnement et de la stratégie de gestion des risques qu’encoure l’organisation.
Impact Organisationnel
Selon Jia et al. (2018), l’automatisation des services RH grâce à l’IA permet aux organisations d’optimiser les coûts et les délais de recrutement, et de multiplier leur efficacité (Jia et al., 2018). Les organisations qui souhaitent ce gain de performance doivent anticiper l’intégration des outils d’IA, qui transforment les méthodes de gestion et la culture organisationnelle (Jia et all., 2018).
Comme nous l’avons souligné ci-dessus, l’IA permet d’éliminer les discriminations et préjugés pendant les phases de recrutement en rationalisant l’évaluation des candidatures au sein de l’entreprise. Elle élimine les biais et assure un traitement de données objectif, favorisant ainsi une équité et une diversité de profils à employer au sein de l’organisation (Yano, 2017; Jia et al., 2018; Lengnick Hall et al., 2018).
Son impact modifie la manière de travailler, de s’organiser et de communiquer au sein de l’entreprise (Hennebert et Bourguignon, 2021), ce qui nécessite de repenser les relations et la place de chaque collaborateur dans les différentes entités de l’entreprise.
Le but de la direction RH automatisée est de faire évoluer le mode de fonctionnement, l’organisation du travail et les procédures de recrutement, de manière à développer chez les collaborateurs de ce service adaptabilité et créativité afin de leur donner des marges de manœuvre sur d’autres activités de l’organisation.
Les algorithmes des ressources humaines, utilisant les données massives de la direction RH pour soutenir les prises de décisions en matière de ressources humaines (Jacob, S., et al., 2022), laissent toute expertise à son personnel.
Des chatbots peuvent par exemple être mis en place pour répondre immédiatement aux différentes requêtes des collaborateurs, travail auparavant géré par le personnel RH, afin de lui dégager du temps pour d’autres tâches nécessitant une plus grande expertise humaine.
De même, la gestion des absences, congés, formations et notes de frais notamment, avec demandes de documents justificatifs, peut être réalisée par des agents conversationnels disponibles en permanence à l’égard des employés (Garg et al., 2018; Lengnick-Hall et al., 2018).
« Mila », par exemple, le robot conversationnel de l’entreprise électronique Overstock.com transmet à son service RH les informations d’absence, relative à leur santé, des employés de son centre d’appel, puis ajuste automatiquement les horaires de travail de l’équipe afin de compenser ces absences (Lengnick-Hall et al., 2018 ; Jacob, S., et al., 2022).
Ces exemples démontrent que l’IA peut significativement impacter les organisations. Son rythme d’innovation rapide exige cependant que les collaborateurs, managers et opérationnels soient dotés des compétences technologiques et opérationnelles requises pour accroitre les capacités de l’organisation à répondre aux besoins de celle-ci et de sa transformation (Jacob, S., et al., 2022).
L’incapacité à transformer les compétences existantes, à réorganiser les entités et équipes, à recruter et embaucher des talents, afin de tirer pleinement parti des technologies de l’IA au sein de l’organisation, peut constituer des risques pour la stratégie organisationnelle de l’entreprise.
Ces risques peuvent apparaitre à plusieurs niveaux notamment managérial (cf. plus bas), métier (cf. plus bas) et organisationnel (voir ci-dessous), et sont de nature lié à la sécurité des employés, de leurs données, de leur bien-être psychologique, social et environnemental, et du lien qu’ils entretiennent avec l’utilisation des technologies de l’IA, qui peut parfois provoquer une dépendance technologique.
Impact Managérial
Avec l’accélération des systèmes d’IA, il est plus qu’important d’encadrer le pouvoir et les prérogatives managériales (Jacob, S., et al., 2022) en définissant la limite du manager.
Il est assez paradoxal, et pourtant essentiel, de distinguer qui d’entre le manager et l’IA prend les vraies décisions, car, dans certaines situations, l’IA est capable de prendre des décisions de manière autonome sans l’intervention d’un manager.
C’est le cas, notamment, dans la recherche en ligne de candidats : une fois la requête du personnel RH bien formulée, l’IA est capable de mener une recherche en ligne de manière autonome, de sélectionner un candidat et de lui adresser une invitation à un entretien.
C’est cependant le manager qui mène l’entretien avec le candidat, présente une proposition de salaire et décide de l’embauche. L’IA seule ne peut gérer tous les processus RH.
Un exemple d’incident a ainsi été observée chez Facebook, où 60 employés contractuels de la société Accenture travaillant pour Facebook ont été licenciés au hasard par un algorithme d’intelligence artificielle sans qu’aucun manager de Facebook n’ait pris une telle décision. L’IA a agi seule.
Cet exemple est inquiétant, notamment pour les managers, qui se verraient outrepassés par les décisions et compétences de l’IA.
Dans la majeure partie des services RH néanmoins, les décisions de l’IA sont limitées, et seuls les managers peuvent prendre des décisions finales. L’IA se place seulement sur l’analyse de la gigantesque masse de données et son interprétation afin d’accompagner l’organisation dans sa prise de décision (Hennebert et Bourguignon, 2021).
Les organisations doivent, du fait de leur interaction avec ces technologies, qui leur offrent un réel changement de perspective, s’appuyer sur leur expérience pour faire évoluer leurs équipes vers des politiques et des pratiques axées sur les données et les preuves (Lengnick-Hall et al., 2018).
Avec l’IA, les managers vont également pouvoir conseiller leur direction hiérarchique sur les possibilités de recrutement et de changement de main-d’œuvre ou de nature du travail (Jacob, S., et al., 2022).
Ils s’appuieront sur les données entrainées par l’IA pour prédire les compétences futures des employés et les profils pouvant interagir avec les outils de travail.
Il est constaté que, malgré les risques managériaux que ces outils peuvent générer, les technologies d’IA sont perçues par les managers comme des outils d’automatisation de tâches routinières et chronophages, d’aide et d’accompagnement à la prise de décisions pour la productivité et la performance de l’organisation.
Après l’étude des impacts de l’intelligence artificielle dans les métiers des ressources humaines, il nous parait important, dans un second temps, de mettre l’accent, ci-dessous, sur les risques générés par celle-ci et la manière dont ils sont gérés en entreprise.
Les risques de l’IA générative dans la direction RH et leur Management
L’IA générative suscite des craintes en entreprise du fait qu’elle se nourrit de grandes quantités de données (Arvind, A., et Mogha, V., 2023). L’identification de ses risques permet néanmoins leur management.
Le management des risques managériaux et de prise de décision
L’IA générative, transformant l’environnement du travail, entraine un changement des conditions de travail des collaborateurs (Gregory et al., 2021 ; Wilson, H. J., & Daugherty, P. R., 2018), confrontant les managers à une gestion plus importante des compétences de leurs équipes ainsi qu’à une interaction sociale plus forte des collaborateurs.
L’IA permettant d’optimiser les temps de tâches et de faciliter le travail, les collaborateurs et managers peuvent en devenir dépendants jusqu’à parfois en perdre leur esprit critique, leur créativité, les connaissances accumulées (Arvind, A., et Mogha, V., 2023) et les expertises collectives.
L’IA présente ainsi des biais et vulnérabilités entrainant des résultats inattendus ou échecs sur des tâches simples en raison de lacunes sur les modèles techniques mis en œuvre (Hoff, K. A., & Bashir, M., 2015).
Pour gérer ces risques majeurs, pouvant affecter ses prises de décisions, l’entreprise met en place des mesures d’audit et des processus de vérification de données d’entrée, et challenge régulièrement les algorithmes utilisés par ses experts.
Brynjolfsson & McAfee (2017) proposent de trouver un équilibre dans l’adoption de l’IA, afin d’améliorer l’efficacité et la prise de décision tout en restant conscient des risques liés à la faillibilité de l’humain, à l’implication des collaborateurs ainsi qu’à l’éthique et la sécurité des données.
Le management des risques métiers
Les risques émergeant de l’IA générative dans la direction RH peuvent contraindre la performance des métiers RH.
C’est par exemple le cas lorsque l’entreprise opte pour une rupture radicale avec les technologies existantes dans le but de déployer rapidement les outils d’IA, mettant fin brutalement à la pratique de méthodes classiques de gestion des ressources humaines.
Un changement soudain peut entrainer une résistance aux changements technologiques (Jia et al., 2018; Hennebert et Bourguignon, 2021). Certains collaborateurs, même s’ils apprécient la conservation des étapes préliminaires et l’automatisation des tâches pénibles qu’offre l’IA, peuvent préférer établir des liens personnels avec les candidats qu’ils recrutent.
De même, pour les candidats, il peut être pénible pour eux de répondre à un entretien de recrutement effectué par une IA, les soumettant à une multitude de questions et de tests d’évaluation en ligne auxquels ils doivent répondre avec précision en un temps chronométré.
Le risque de perdre des candidats, surtout expérimentés, peut impacter considérablement la stratégie de recrutement de l’entreprise.
D’autres part, le manque de maitrise, par les outils d’IA, des processus et de coordination des activités RH, et, par les personnels RH, de l’utilisation des outils peut impacter les organisations (Tambe et al., 2019).
Les technologies d’IA évoluant très vite et demandant une connaissance et une montée en compétences rapide, les gestionnaires et responsables RH ne parviennent pas toujours à les maitriser assez rapidement.
Ils développent généralement une logique d’apprentissage longue, par tâtonnement, envers ces outils, générant ainsi un manque de productivité en direction RH.
Frustrés et stressés, parce qu’ils sentent avoir des difficultés à assimiler les systèmes d’IA (outils) et à développer leurs propres compétences relatives à l’analyse des données (Tambe et al., 2019), la performance de l’entreprise peut être impactée.
Si la direction RH n’arrive par exemple pas à recruter de bons profils, à détecter les talents et compétences les meilleures, ou à gérer ressources humaines et activités associées, notamment de paie, contrats, programmes de santé et sécurité au travail, du fait d’une non maitrise des technologies de l’IA, des répercussions auront lieu sur la productivité des métiers RH, voire sur la stratégie de l’entreprise.
De ce fait, pour manager ces risques, la direction RH doit se préparer à l’avance en identifiant, dans un premier temps, tous les risques d’impact possibles de ses métiers, les documentant, préparant psychologiquement ses collaborateurs à l’adoption de l’IA, puis, dans un deuxième temps, en repérant les outils et les actions d’accompagnement et de formation à mettre en place afin de faciliter la monter en compétence rapide de ses collaborateurs.
De même, en introduisant les technologies de l’IA, la direction doit procéder à une stratégie de changement progressif des métiers RH afin d’éviter les résistances et les risques associés au changement.
Le management des risques organisationnels
Comme souligné ci-dessus, nous mettrons en exergue les risques organisationnels qui nous semblent importants à l’ère de l’IA, en mettant l’accent sur la sécurité des employés dans l’usage de ces technologies.
Le management des risques de dépendance technologique
L’introduction de l’IA générative en entreprise combine le travail humain et celui des machines pour exploiter des avantages concurrentiels (Davenport, 2018 ; Borges et al., 2021), optimiser des tâches et aider à la prise de meilleures décisions (Shrestha et al., 2019).
Il s’avère cependant que l’utilisation systématique de l’IA engendre des risques de dépendance technologique, et, de ce fait, de perte de compétences et d’autonomie des employés : les tâches automatisées n’étant plus réalisées par les collaborateurs, des savoir-faire peuvent être perdus, rendant les équipes potentiellement tributaires des applications et vulnérables en cas d’incidents.
Cet enjeu de sauvegarde de l’expertise technique humaine intervient cependant également vis-à-vis de l’évolution des tâches (situations d’obsolescence, de perte de productivité ou de performance) et des rapports sociaux (mouvements internes et turn-over).
Pour manager ces risques, l’entreprise peut mettre en place un plan de gestion de carrières et de formation : elle identifie et forme ses agents vers de nouvelles compétences adaptées à l’utilisation de l’IA, leur permettant de maintenir leurs aptitudes à l’emploi, en réaffecte certains ou leur confie des tâches ne demandant pas de compétences en IA.
Les postes inévitablement remplacés par l’IA, quant à eux, donnent lieu à un suivi psychologique et financier ainsi qu’à un accompagnement vers une réorientation professionnelle.
Afin d’assurer une transmission des compétences, de nombreuses unités documentent également nombre de leurs tâches et aménagent des temps de passation de poste entre employés.
Le management des risques liés à la sécurité des données
La gestion des données en entreprise soulève également d’importantes problématiques (Donnat, F., 2019), relevant notamment de la transparence et protection des données.
La mise en place de la législation RGPD garantie la sécurité des données personnelles, luttant contre l’abus de l’utilisation de ces dernières par les entreprises (Arvind, A., et Mogha, V., 2023).
Un décret plus strict, appelé « l’IA Act », en cours d’étude par le parlement européen, devrait encadrer l’usage des données issues de l’IA dans les entreprises et prévenir ses dérives.
Néanmoins, malgré ces réglementations, une mauvaise gestion des données entraine rapidement des atteintes à la confidentialité et à la vie privée (Donnat, F., 2019).
Difficilement évitable dans l’utilisation d’IA, ces préjudices, conduisant à des sanctions à lourdes pénalités, nuisent à la réputation de l’entreprise.
Un modèle d’IA construit à partir de données inexactes ou de mauvaise qualité peut aussi biaiser les prises de décisions (Hoff, K. A., & Bashir, M., 2015), et par exemple mener à des discriminations (Donnat, F., 2019 ; Adams, R., 2019), affectant la crédibilité et la réputation de l’entreprise.
En 2016, Tay, un chatbot conversationnel de Microsoft, ayant des propos racistes et misogynes sur Twitter, a, malgré sa rapide désactivation, engagé la responsabilité et la crédibilité de Microsoft envers ses utilisateurs (Donnat, F., 2019).
Les algorithmes, entrainés par des données altérées, contribuent à la propagation de fausses informations (deepfake), voire influencent les décisions d’utilisateurs (Arvind, A., et Mogha, V., 2023).
Deux catégories de solutions d’IA, appelées « Close Source » et « Open Source », se différencient, notamment dans la proportion de risque de biais qu’elles génèrent.
Avec les solutions « Close Source », l’entreprise ne peut modifier ou adapter le code source et les modèles de données entrainées. N’ayant pas suffisamment de contrôle sur les modèles de données fournies, elle ne peut limiter la génération de biais, qui peuvent pourtant affecter sa prise de décision.
C’est le cas des solutions fournies par Open AI, qui sont entrainées sur des modèles dont le code source est fermé. L’entreprise, ou l’utilisateur, n’a pas la possibilité de les modifier et ni de les adapter à ses propres données, ce qui peut de fait biaiser les décisions prises selon les résultats donnés par ces solutions.
Au contraire, avec les solutions « Open Source », l’entreprise a la possibilité de modifier le code source, et ainsi d’adapter les modèles entrainés, dit finetuning, sur des données spécifiques, gardant ainsi le contrôle sur l’analyse faite, réduisant donc les risques de biais pouvant affecter la prise de décision de l’entreprise.
C’est le cas des solutions développées par Meta (Facebook) ou Mistral AI, qui laissent la possibilité à l’entreprise, et/ou l’utilisateur, de modifier le code source, de l’adapter et d’entrainer ses propres données.
Pour gérer et atténuer ces risques (manipulation d’opinions, décrédibilisassions par des concurrents, piratage, …), l’entreprise met en place un écosystème de protection (cyber-sécurité), réalisant régulièrement des tests de résistance et de pénétration pour détecter intelligemment les menaces, renforcer sa sécurité et surveiller en temps réel ses données.
L’entreprise instaure également des modèles prédictifs évaluant les données complexes qui envoient des informations aux managers et décideurs leur permettant de se protéger (Berruti et al., 2020) des fausses indications.
Le management des risques éthiques
Les risques éthiques de l’IA soulèvent énormément des questions majeures sur les comportements humains et entreprises dans l’utilisation des technologies de l’IA.
Les systèmes d’IA consommant d’énormes quantités d’énergies, ses investissements étant colossaux, son impact environnemental et social cause un questionnement éthique plus important que son intégration dans les entreprises (Balagué, C., 2018).
La mise en place de ces modèles demande un coût d’investissement important (Marjanovic et al., 2021) en capital humain, en matériels et logiciels informatiques (environnements techniques et systèmes, datacenters et serveurs, …) et une grande quantité d’énergie permettant le fonctionnement de ceux-ci. Ce qui induit un impact environnemental important (Marjanovic et al., 2021).
Concernant l’usage de données, certaines entreprises, utilisant les solutions d’IA, ignorent les normes éthiques et morales dans leur manipulation de données afin d’obtenir un avantage concurrentiel, ce qui les expose néanmoins à des poursuites judiciaires.
Aux Etats-Unis, des actions en justice ont par exemple été engagées contre Open IA, Microsoft et Google, sur le fait que ces firmes aient collecté gratuitement des données et contenus sur le web pour entrainer leurs IA.
Bien que les législations soient différentes d’un pays à un autre, certaines entreprises se passent de normes éthiques lorsqu’il s’agit de générer du profit.
Malgré qu’un groupe d’experts de la commission européenne ait rédigé des textes juridiques sur les principes éthiques de l’IA, dont notamment sur le respect de la dignité humaine, la liberté des individus, le respect de la démocratie, de la justice et de l’Etat, l’égalité, la non-discrimination et la solidarité, ainsi que les droits des citoyens, cette nouvelle approche législative reste limitée à des pratiques juridiques et politico-culturelles européennes.
Ces textes de lois, inspirés de ceux du développement éthique biomédical (De Cooman, J., 2020), ne couvrent pas suffisamment tous les cas et aspects spécifiques des technologies de l’IA.
Dans le but d’évaluer la performance de ses collaborateurs, un service RH, ou un manager, pourrait décider, sans l’accord de ceux-ci, d’utiliser une IA pour contrôler leur performance et productivité, et, en fonction des résultats reçus de l’IA, leur accorder ou non une prime de performance.
De même, le service RH, ou le manager, pourrait décider de surveiller la présence de ses collaborateurs sur leur poste de travail lorsque ceux-ci sont en télétravail, malgré que ce choix et dispositif soit contraire au sens éthique et à la liberté de chacun de s’organiser librement.
Ce service RH, ou manager, peu scrupuleux, pourrait également être tenté d’auto-évaluer les absences de ses collaborateurs sur justificatifs médicaux, et de les recatégoriser en congés, ou d’user de son influence afin de les empêcher d’obtenir certains avantages, tels qu’une augmentation de salaire, une formation, un changement de poste et/ou de niveau, s’il estime subjectivement qu’ils n’en sont pas dignes.
Il est très difficile de contrôler ou d’encadrer les dérives internes qui peuvent apparaitre au sein de certaines entreprises souhaitant ignorer la loi, la morale et l’éthique, pour atteindre leurs fins.
Par ailleurs, le déploiement de solutions intégrées d’IA de nombreuses entreprises provenant généralement de grandes entreprises américaines et chinoises, telles que Apple, Google, Microsoft, Open AI, Facebook (Meta), IBM, Nvidia, Amazon, Alibaba, Baidu ou Tencent, dont la considération éthique est perçue sous un angle différent de l’éthique européenne, il peut être difficile pour les services européens de les conformer à leur point de vue éthique malgré leur bonne volonté.
De nombreuses entreprises, n’ayant pas de moyens suffisants pour développer leurs propres systèmes d’IA, utilisent les solutions fournis par ces géants américains et asiatiques.
Les systèmes et modèles d’IA régissant leurs outils ont ainsi souvent été entrainés sur des données spécifiques à ces entreprises outre-Atlantique, dont les valeurs et politique culturelle et juridique sont différentes.
Les entreprises intégrant des solutions et des modèles d’IA développées par ces grandes entreprises sont donc contraintes de peser le pour et le contre des risques éthiques et moraux pouvant les freiner dans la recherche d’un avantage concurrentiel.
Les outils d’IA en RH sont ainsi pour la plupart des solutions déployées, intégrées et adaptées aux différents services de la direction, à moins que leur entreprise ait suffisamment de moyens pour développer ses propres solutions d’IA.
Ces services, conscients de ces problématiques et rendus responsables sur ces questions, sont généralement contraints d’adapter leurs modèles de données selon leur pratique éthique et morale pour réduire les biais de ces technologies d’IA.
Pour manager et atténuer ses risques, des principes éthiques de base sont néanmoins reconnus lors du développement d’un système d’IA en entreprise.
Selon le rapport des experts de la commission européenne (De Cooman, J., 2020), il s’agit notamment du respect de l’autonomie humaine, de la présentation de toute atteinte, de l’équité et de l’explicabilité.
L’explicabilité est l’un des plus importants de ces principes, permettant de s’assurer de la transparence des systèmes d’IA et de leurs modèles : les décisions prises par les algorithmes développés doivent être explicables pour gagner la confiance des utilisateurs (De Cooman, J., 2020).
A ces principes éthiques, pourrait être ajouté la formation des équipes et utilisateurs des outils d’IA, ainsi que la sensibilisation et la communication des problématiques éthiques et morales.
En complément de la CNIL, de la RGPD et de « l’IA Act », il apparait important de mettre en place un comité de suivi et de contrôle éthique en entreprise œuvrant sur les pratiques de l’IA, composé de membres du service juridique de la direction RH, des délégués syndicaux et des managers afin de développer un bien-être sociétal, environnemental et responsable, en terme de pratiques d’IA dans les organisations.
Conclusion
Permettant l’automatisation et l’optimisation de nombreuses tâches, l’emploi massif d’IA générative sous différentes formes (Arvind, A., et Mogha, V., 2023), ne cessant de croître, expose de plus en plus les directions RH à d’importants risques.
Afin de s’en parer, nombre d’entre elles mettent en place des plans de gestion et d’audit des risques, intégrant toutes les parties prenantes de leur organisation interne et externe (managers, personnels RH, collaborateurs et consultants externes).
Impactant fortement leurs performances, les risques sont identifiés, tracés, et corrigés en équipe. Des stratégies, règles de bonne conduite et processus sont ainsi définis pour une utilisation responsable et bénéfique de l’IA.
Il est par ailleurs observé que les risques métiers et de dépendances technologiques sont mieux maitrisés que les risques managériaux et de prise de décision, ainsi que ceux liés à la sécurité des données et l’éthique.
En effet, les risques métiers et de dépendances technologiques sont généralement bien identifiés car ils apparaissent régulièrement lors d’adoption de nouvelles technologies, les entreprises savent les anticiper et les manager.
En ce qui concerne la maitrise des risques métiers, les responsables RH s’attachent à identifier, avant de déployer des outils d’IA, ceux qui sont susceptibles de correspondre aux besoins de la direction.
Ils les choisissent après de multiples échanges avec des experts et démonstrations auprès des managers afin de les présenter à un personnel RH déjà préparé psychologiquement aux changements technologiques de leur service.
Ce personnel et/ou leurs collaborateurs sont alors intégrés aux séances de formation organisées afin d’apprendre leur utilisation.
Ces formations, indispensables pour acquérir les compétences requises, permettant une interaction optimale avec les technologies d’IA, s’accompagnent parfois d’une exigence d’obtention d’un certificat prouvant à la direction RH que ses collaborateurs se sont pleinement investis.
Des moyens matériels sont alors mis en place afin de les accompagner plus rapidement dans leur montée en compétence en toute autonomie sur leurs postes.
Cette manière de procéder permet ainsi à la direction RH de prévoir et gérer les pertes de compétences, d’autonomie et de productivité au sein de ses différents services RH.
L’entreprise anticipe la perte de temps et le coût qu’elle encaisserait si un personnel RH passait trop de temps à apprendre à interagir avec les applications de l’IA ou si une dépendance technologique apparaissait.
Elle identifie rapidement parmi ses collaborateurs ceux qui sont capables de s’adapter et de travailler avec les outils d’IA et ceux qui n’en sont pas capables ou qui résistent aux changements, qui sont alors dirigés vers d’autres fonctions et/ou accompagnés vers une réorientation professionnelle, puisque l’usage de l’IA transforme radicalement ces métiers.
La direction RH, se transformant, amène donc l’entreprise à évoluer vers des stratégies axées sur les données, en automatisant les activités chronophages permettant à son personnel de se concentrer davantage sur des activités d’analyse et d’interprétation de données et/ou de résultats.
Elle développe également une expertise dans la communication personnelle, la négociation et l’esprit critique, reconnaissant les qualités techniques et surtout humaines des employés et candidats.
Les risques de sécurité des données, quant à eux, sont plus inquiétants et nécessitent d’être très vigilant vis-à-vis de celles relatives aux employés, qui peuvent être exploitées par certaines directions RH ayant perdu le sens éthique et moral.
Certaines directions RH utilisent par exemple l’IA pour étudier les gestes et comportements des collaborateurs, surveiller et analyser leurs émotions, s’introduisant sans limite dans leur vie privée (Jacob, S., et al., 2022).
Les responsables RH, accompagnées de leurs experts, doivent s’assurer de l’éthique des modèles d’IA (algorithmes) et de leurs applications développées, ainsi que de la véracité des données entrainées par ceux-ci afin de supprimer, ou du moins réduire, le risque potentiel de création ou renforcement de discrimination dans les processus, par exemple, de recrutement et de licenciement.
Il revient aux responsables RH, en s’appuyant sur la loi, de définir les limites de l’utilisation des technologies d’IA dans leur direction, tout en tirant pleinement profit de celles-ci, et de rester vigilants à ce que les systèmes d’IA déployés dans les différents services RH ne créent pas de nouveaux problèmes éthiques dans l’entreprise (Donnat, F., 2019, Jacob, S., et al., 2022).
Bibliographie
- Adams, R, (2019), « Artificial intelligence has a gender-bias problem – just ask siri ».
- Arvind, A., et Mogha, V., (2023), « Les risques liés à l’innovation : le cas de l’intelligence artificielle », Technologie et Innovation, vol. 8, p. 1-14.
- Borges et al., (2021), « The strategic use of artificial intelligence in the digital era: Systematic literature review and future research directions », International Journal of Information Management, Elsevier, vol. 57(C).
- Blier, L., (2017), « Apprentissage profond et théorie de l’information », Université Paris-Saclay.
- Brynjolfsson, E. & McAfee, A., (2017), « Artificial intelligence for real – The business of artificial intelligence – What it can, and cannot – Do for your organization », Havard Business School Publishing Corporation.
- Balagué, C., (2018), « De l’éthique des algorithmes et de l’intelligence artificielle», Post-Printhal-01900566, HAL.
- Davenport, T.H., (2018), « From analytics to artificial intelligence », Journal of Business Analytics 1(2):1-8. DOI:1080/2573234X.2018.1543535.
- Donnat, F., (2019), « L’intelligence Artificielle, un danger pour le privé ».
- Gaglio, G., Vayre, J-S., (2020), « L’intelligence artificielle n’existe-t-elle vraiment pas ? Quelques éléments de clarification autour d’une science controversée », Diogène2020/1-2 (n° 269-270), p. 107-120.
- Garg, V., Srivastav, S., et Gupta, A., (2018), « Application of artificial intelligence for sustaining green human resource management». 2018 International Conference on Automation and Computational Engineering (ICACE), 113-116.
- Georges, B., (2019), « Intelligence artificielle : de quoi parle-t-on ? », Constructif2019/3 (N° 54), p. 5-10.
- Gregory et al., (2021), « The role of artificial intelligence and data network effects for creating user value », Academy of Management Review, 46(3), p. 534-551.
- Hennebert, M.A., et Bourguignon, R. (2021), « La gestion des ressources humaines à l’ère numérique : Occasion stratégique ou risque de marginalisation? » Dans J. Bernier (dir.), L’intelligence artificielle et les mondes du travail. Perspectives sociojuridiques et enjeux éthiques (99-122). Presses de l’Université Laval.
- Hoff, K. A., & Bashir, M., (2015), « Trust in Automation: Integrating Empirical Evidence on Factors That Influence Trust ». Human Factors, 57(3), 407-434. DOI : 1177/0018720814547570
- Jacob, S., Souissi, S., Patenaude, N., (2022), « Intelligence artificielle et transformation des métiers en gestion des ressources humaines ». Chaire de recherche sur l’administration publique à l’ère numérique. Université Laval. Québec, 2022.
- Jérôme De Cooman, 2020, « Éthique et intelligence artificielle: l’exemple européen »
- Jia, Q., Guo, Y., Li, R., Li, Y. et Chen, Y. (2018), « A conceptual artificial intelligence application framework in human resource management ». Proceedings of the International Conference on Electronic Business, 106 114.
- Kolbjørnsrud et al., (2016), « How artificial intelligence will redefine management ». Harvard Business Review, 2(1), p. 3-10.
- Lengnick-Hall, M. L., Neely, A. R., et Stone, C. B., (2018), « Human resource management in the digital age: Big data, HR analytics and artificial intelligence ». Dans P. N. Melo et C. Machado, Management and technological challenges in the digital age (1-30). CRC Press.
- Marjanovic et al., (2021), « Algorithmic pollution : Making the invisible visible », Journal of Information Technology, 36(4), p. 391-408.
- Tambe, P., Cappelli, P. et Yakubovich, V., (2019), «Artificial intelligence in human resources management: Challenges and a path forward ». California Management Review, 61(4), 15-42.
- Raisch, S., & Krakowski, S., (2021), « Artificial intelligence and management : The automation–augmentation paradox », Academy of Management Review, 46(1), p. 192-210.
- Shrestha et al., (2019), « Organizational Decision Making Structures in the Age of Artificial Intelligence », California Management Review 61(4):000812561986225. DOI: 10.1177/0008125619862257.
- Silver et al., (2016), « Mastering the game of Go with deep neural networks and tree search », Nature, 529.
- Sternberg, R. J., (1985), « Beyond IQ: A triarchic theory of human intelligence », Cambridge University Press (p. xvi, 411).
- Wilson, H. J., & Daugherty, P. R., (2018), « Collaborative intelligence: Humans and AI are joining forces », Harvard Business Review, 96(4), p. 114-123.
- Yano, K., (2017), « How artificial intelligence will change HR. People & Strategy », 40(3), 42-47.
- Zouinar, M., (2020), « Évolutions de l’Intelligence Artificielle : quels enjeux pour l’activité humaine et la relation Humain‑Machine au travail ? ». https://doi.org/10.4000/activites.4941