Citation
Les auteurs
Charles Ngando Black
(cngando@msn.com) - (Pas d'affiliation)Mostapha ZOUGGAR
(mostapha.zouggar@gmail.com) - (Pas d'affiliation)
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
L’IA ne s’intègre pas aux organisations comme une technologie parmi d’autres. Elle s’y installe, s’y diffuse, s’y recompose, modifiant au passage les décisions, les pratiques, les outils, les responsabilités – et surtout, les compétences. Si les discours sur l’IA insistent souvent sur ses potentialités, ses dangers ou sa réglementation, ils passent trop souvent sous silence ce qui constitue peut-être sa véritable rupture : sa capacité à reconfigurer en profondeur les savoirs individuels et collectifs nécessaires pour agir.
Prenons un exemple simple : un professionnel des ressources humaines qui utilise un assistant IA pour présélectionner des candidatures. En apparence, l’outil automatise une tâche chronophage. Mais en réalité, il redéfinit subtilement les contours du métier. Le recruteur ne se contente plus d’analyser des profils ; il doit désormais interpréter des scores produits par un modèle dont il ne maîtrise ni les logiques, ni les données d’entraînement. Il doit questionner les critères retenus (par exemple : quels types de parcours ou d’expériences l’IA valorise ou écarte ?), veiller à la conformité éthique des recommandations, et assumer la responsabilité finale du choix, même lorsque celui-ci entre en tension avec l’avis de l’algorithme.
La compétence du recruteur ne réside donc plus uniquement dans sa capacité à lire un CV, mais dans sa faculté à naviguer entre des données statistiques (souvent opaques), des valeurs organisationnelles (inclusion, équité, diversité), un devoir de vigilance (biais, discriminations potentielles) et un jugement professionnel à assumer en situation.
Ce glissement redessine profondément les savoirs nécessaires pour agir. Il exige des compétences plus réflexives, transversales, et évolutives : savoir interpréter sans surinterpréter, arbitrer sans s’effacer, contextualiser des résultats techniques dans une décision humaine. Et, surtout, il appelle à un apprentissage continu, car les modèles évoluent, les contextes changent, et les conséquences – sociales, juridiques, éthiques – deviennent de plus en plus sensibles.
Ce type de bouleversement est progressif, contextuel, évolutif – et donc fondamentalement incompatible avec les logiques classiques de formation ponctuelle ou de gestion standardisée des talents. En d’autres termes, l’IA défie les approches RH traditionnelles : elle appelle à une nouvelle grammaire de l’apprentissage, fondée sur la responsabilité, la temporalité, la réflexivité et l’ajustement continu.
Face à cette réalité, une question centrale émerge :
Comment piloter la montée en compétence individuelle dans un environnement technologique aussi mouvant que l’intelligence artificielle ? Et, plus largement : comment structurer une gouvernance apprenante des compétences, capable de faire de l’IA un levier de transformation durable, plutôt qu’un facteur d’inégalités ou de dépendances ?
C’est à cette problématique que cet article propose de répondre, en montrant pourquoi l’IA impose de repenser en profondeur les modalités d’identification, d’évaluation et de développement des compétences, au service d’une stratégie à la fois humaine, opérationnelle et systémique.
L’IA ne s’intègre pas : elle redistribue les cartes
Loin des précédentes vagues technologiques
À chaque cycle d’innovation, les organisations ont tenté d’adapter leurs modèles et leurs compétences : informatisation dans les années 1980, numérisation dans les années 2000, automatisation dans les années 2010. Ces transitions ont transformé les outils, les processus et, dans une moindre mesure, les métiers. Mais elles ont rarement remis en cause la structure des rôles ou la nature des décisions.
Avec l’IA, le changement est d’une autre nature. Elle ne remplace pas une fonction par un logiciel, elle introduit une autonomie partielle dans les systèmes, une capacité de prédiction, d’interprétation ou d’optimisation qui bouleverse la répartition habituelle entre l’humain et la machine. Ce n’est pas un outil qui change : c’est le sens même de certaines activités qui devient mouvant.
Là où l’automatisation supprime des tâches, l’IA redéfinit des rôles.
Là où la numérisation fluidifie des flux, l’IA reconfigure les circuits de décision.
Un impact systémique, pas seulement technique
L’IA ne se limite pas à automatiser une partie du travail ; elle modifie les conditions mêmes de l’action professionnelle. Elle agit sur cinq dimensions clés :
Les décisions forment la première dimension. Avec l’IA, la logique de prédiction ou de recommandation remplace les processus linéaires fondés sur la règle ou l’expérience. Par exemple, un professionnel du crédit ne suit plus une grille préétablie : il interprète un score généré par un algorithme, qu’il peut être amené à contester sans en comprendre la logique. La décision devient co-produite entre humain et système.
Les interactions constituent la seconde dimension. Assistants virtuels, chatbots et interfaces adaptatives modifient la manière dont les individus interagissent avec leur environnement. Un collaborateur n’accède plus directement à l’information, mais dialogue avec une interface algorithmique qui filtre, reformule ou anticipe ses demandes. L’acte de travail devient médié par un système.
Les responsabilités sont aussi concernées. Quand une machine suggère ou filtre, qui est responsable du choix final ? Dans le cadre d’un recrutement, un système IA peut écarter certains profils. Le recruteur peut suivre ou non cette recommandation, mais il devra en assumer les conséquences. La responsabilité devient plus diffuse, parfois partagée de manière ambiguë.
Les temporalités forment la quatrième dimension. Les modèles évoluent en permanence, ce qui rend la compétence elle-même périssable ou réversible. Une experte métier peut perdre en efficacité du jour au lendemain si les outils qu’elle utilise changent de comportement sans qu’elle ait été préparée à cela.
Les référentiels de compétence constituent la dernière dimension. Les savoirs utiles ne sont plus toujours ceux qui ont été formalisés. Des compétences cruciales, comme la capacité à interpréter un résultat produit par un algorithme ou à alerter sur une dérive, restent souvent invisibles dans les systèmes d’évaluation existants.
En définitive, l’IA ne transforme pas seulement les tâches accomplies, mais la manière de les réaliser, les critères qui orientent l’action, les acteurs impliqués et les temporalités dans lesquelles les décisions s’inscrivent. Dans ce contexte, la compétence n’est plus une somme de connaissances mobilisables, mais une capacité à s’orienter dans des environnements partiellement indéterminés, à dialoguer avec des systèmes qui apprennent, et à exercer un jugement là où l’automatisation pourrait induire des biais ou des aveuglements.
Une transformation des postures, pas seulement des pratiques
La véritable rupture introduite par l’IA tient à la manière dont elle réinterroge la posture professionnelle :
- Le technicien devient interprète.
- Le décideur devient médiateur d’un jugement partagé entre humain et machine.
- Le collaborateur devient contributeur potentiel de la performance du système (via les données ou les usages qu’il génère).
Ainsi, l’IA déplace les lignes de la compétence vers des zones plus réflexives, plus collaboratives, plus éthiques. Elle exige une capacité à interagir, à expliquer, à contester parfois, à ajuster les usages. Bref, elle appelle une compétence incarnée, dialogique (c’est-à-dire construite dans l’échange), et évolutive.
Pourquoi les approches classiques de formation échouent face à l’IA
L’échec des référentiels figés et des grilles standardisées
Face à l’IA, beaucoup d’organisations reproduisent les réflexes hérités de l’ère numérique ou des démarches qualité : élaborer un référentiel, décliner des modules, attribuer des niveaux de maîtrise. Mais ce modèle fondé sur la stabilité des savoirs est en inadéquation totale avec la dynamique propre de l’IA.
Les compétences exigées évoluent avec :
- la maturité des cas d’usage,
- les modèles technologiques employés (LLM, IA hybride, automatisation cognitive…),
- et surtout, le degré d’exposition des équipes aux effets indirects de l’IA (décision, responsabilité, interprétation).
Un référentiel trop général se révèle vite inopérant, tandis qu’un référentiel trop technique échappe aux non-spécialistes. L’illusion d’exhaustivité produit alors un double effet pervers : les équipes s’épuisent dans l’évaluation, sans que l’on sache comment traduire cela en trajectoires d’apprentissage utiles.
Le mythe de la formation “one shot” : un apprentissage devenu vivant
Autre impasse : penser la montée en compétence sur le mode du « coup de formation ». Une session de sensibilisation, un atelier technique, un MOOC en ligne suffiraient à « former » les collaborateurs à l’IA. Or, comme l’indiquent de nombreuses recherches et retours d’expérience, l’appropriation de l’IA est progressive, cumulative, non linéaire.
La compétence IA :
- s’apprend par l’usage, l’observation, l’expérimentation,
- se consolide par l’échange et le retour d’expérience,
- se transforme au fil de l’évolution des outils et des contextes.
En réalité, l’IA ne forme pas un socle de savoirs à transmettre, mais un champ de pratiques à explorer, à adapter, à réguler. Une compétence IA acquise en 2023 peut être partiellement obsolète en 2025. Il ne s’agit plus d’enseigner un contenu, mais d’entretenir une capacité à évoluer.
L’oubli du contexte : une compétence toujours ancrée dans les situations d’usage.
Un dernier angle mort des approches classiques : l’abstraction du contexte métier. Une compétence IA n’a pas de sens si elle n’est pas rapportée à :
- une finalité (décision, automatisation, amélioration de service),
- une posture (utilisateur, concepteur, médiateur, stratège),
- un environnement (cadre réglementaire, maturité digitale, relations professionnelles…).
Or la plupart des dispositifs actuels ignorent cette complexité. Ils proposent des contenus « prêts à consommer » – parfois très bien conçus – mais qui ne tiennent pas compte de la diversité des usages, des métiers, des niveaux d’autonomie ou des représentations.
L’absence de contextualisation produit un triple effet :
- Décalage entre la formation reçue et les besoins réels,
- Sous-adhésion des collaborateurs peu exposés ou peu concernés,
- Inefficacité dans la transformation des pratiques quotidiennes.
En somme, les démarches de formation classiques échouent non parce qu’elles sont mal construites, mais parce qu’elles ne sont pas pensées pour une technologie évolutive, sensible aux usages et productrice d’effets inattendus.
Vers une gouvernance apprenante des compétences IA
Du pilotage RH au pilotage stratégique
À mesure que l’IA gagne en profondeur d’impact, il devient illusoire de confier la montée en compétence aux seuls services RH ou à des plans de formation « catalogue ». Ce qui est en jeu, ce n’est pas seulement l’adéquation des profils, mais la capacité collective de l’organisation à accompagner une transformation continue, éthique et ancrée dans les réalités métier.
Cela suppose un pilotage qui dépasse la gestion administrative des compétences pour s’affirmer comme un levier stratégique de souveraineté interne :
- Souveraineté face à l’externalisation excessive (prestataires, outils « boîte noire »),
- Souveraineté face à la standardisation des usages (IA imposée sans adaptation),
- Souveraineté dans la manière de construire une culture IA propre à l’organisation.
Une telle ambition ne peut être portée que par une gouvernance hybride, qui articule vision stratégique, ancrage métier, accompagnement opérationnel et engagement individuel. Les compétences deviennent ainsi une ressource partagée et co-produite, à piloter au même titre que les ressources technologiques ou financières.
Un pilotage dans le temps : évaluer, réévaluer, ajuster
Face à une IA en perpétuelle mutation, le pilotage des compétences ne peut être figé. Il doit reposer sur des boucles d’apprentissage stratégiques, où l’évaluation n’est pas une sanction, mais une opportunité d’ajustement.
Cette dynamique apprenante repose sur plusieurs principes :
- Des évaluations régulières, outillées, contextualisées et partagées.
- Des plans d’action évolutifs, qui tiennent compte des écarts critiques, mais aussi des émergences positives (compétences « invisibles » ou sous-valorisées).
- Des réévaluations programmées, qui servent à mesurer l’effet des dispositifs engagés, et à ajuster les référentiels, les priorités, les méthodes.
Cette approche transforme radicalement la temporalité RH. On ne pilote plus en année calendaire, mais dans des cycles courts d’observation, d’activation et de régulation, synchronisés avec les usages réels de l’IA.
Un pilotage dans l’espace : contextualisation et personnalisation
Enfin, une gouvernance apprenante exige une personnalisation des parcours. Tous les collaborateurs ne vivent pas l’IA de la même manière, ni au même rythme. Il faut donc :
- Identifier des profils types (consommateur, contributeur, technicien, stratège),
- Adapter les compétences cibles selon les rôles, les missions et les contextes métier,
- Proposer des formats variés (capsules, mentorat, retour d’expérience, immersion…),
- Valoriser les relais internes et les pratiques diffusées par les pairs.
La montée en compétence cesse ainsi d’être une affaire de conformité descendante. Elle devient une dynamique relationnelle, engageante et ancrée dans les pratiques et les environnements réels et façonnée par les réalités des métiers.
En d’autres termes, piloter les compétences IA, ce n’est pas gérer une transition, c’est organiser une transformation continue, alignée sur les usages, les valeurs, les territoires professionnels de l’organisation.
Une innovation silencieuse mais radicale : la compétence comme bien commun
Redéfinir les indicateurs : du niveau au mouvement
Dans les modèles classiques, la compétence est évaluée comme un niveau : savoir-faire acquis, validé, parfois certifié. Or face à l’IA, cette logique atteint ses limites. Ce qui compte, ce n’est plus d’atteindre un seuil, mais de développer une capacité à évoluer, à se repositionner, à s’approprier des usages inédits.
Cela suppose de repenser les indicateurs de pilotage :
- Passer de la mesure d’atteinte à la trajectoire d’apprentissage,
- Valoriser les transitions entre rôles (de consommateur à contributeur, de contributeur à relais métier),
- Intégrer des critères de réflexivité, de responsabilisation, d’engagement dans la durée.
Ce changement de perspective redonne sa place au mouvement, à l’intelligence des parcours, à la compétence comme devenir – pas comme stock.
Valoriser les relais, les passeurs, les profils moteurs
Dans tout processus de transformation, certains collaborateurs deviennent des relais spontanés : curieux, expérimentateurs, médiateurs. Trop souvent, ces profils ne sont ni identifiés, ni accompagnés, ni valorisés.
Une gouvernance apprenante des compétences IA doit :
- Cartographier les dynamiques internes d’appropriation,
- Offrir à ces relais des espaces de reconnaissance, de diffusion, de montée en leadership,
- En faire des acteurs de la stratégie IA, et non de simples utilisateurs avancés.
La compétence devient alors un vecteur d’autonomisation, de prise d’initiative collective, et de diffusion horizontale des savoirs.
Repenser la légitimité : une culture IA partagée et ancrée dans les pratiques
Enfin, l’une des ruptures les plus profondes introduites par ce modèle tient à la transformation du rapport à la légitimité. Dans un monde algorithmique, celui qui sait n’est plus forcément celui qui code, mais celui qui comprend, qui contextualise, qui interprète, qui fait le lien.
Cela implique de :
- Déhiérarchiser la compétence IA, en reconnaissant la diversité des formes de savoirs utiles (technique, métier, éthique, relationnel),
- Construire une culture IA partagée, fondée sur le dialogue, la confrontation des points de vue et l’appropriation collective,
- Soutenir des espaces où la compétence, contextualisée dans ses usages et assumée dans sa mise en responsabilité, se négocie, se construit et se régule collectivement.
C’est ainsi que la compétence cesse d’être un attribut individuel pour devenir un bien commun organisationnel, source d’engagement, de confiance, et de transformation pérenne.
Conclusion
L’IA ne bouleverse pas seulement les technologies : elle déplace nos repères professionnels, nos responsabilités, nos formes de collaboration. Elle modifie ce que signifie « savoir-faire », « décider », « agir », dans des environnements de plus en plus instables, hybrides, et coconstruits entre humains et systèmes.
Dans ce contexte, le véritable enjeu n’est pas tant de former à l’IA que d’apprendre à évoluer avec elle. Cela exige de dépasser les logiques descendantes, ponctuelles ou standardisées de la formation classique. Cela appelle une gouvernance apprenante, capable de piloter les compétences dans la durée, dans le dialogue, dans l’action.
Piloter les compétences IA, c’est :
- Poser un cadre stratégique qui donne sens à la transformation,
- Outiller une montée en responsabilité progressive, ancrée dans les contextes d’usage,
- Accompagner des trajectoires individuelles plurielles, vivantes, contextualisées, adaptées aux réalités métiers et aux cas d’usage,
- Reconnaître la compétence comme un commun professionnel, à valoriser et à entretenir ensemble.
Plus qu’une réforme des plans de formation, c’est une mutation de notre culture organisationnelle qui s’engage. Une culture qui ne réduit pas l’intelligence à des algorithmes, mais qui fait de la compétence un processus partagé, orienté vers l’apprentissage collectif, l’autonomie et la transformation éthique.
C’est à cette condition que l’IA deviendra un levier d’émancipation, et non de marginalisation. Et que les organisations sauront faire de leur capital humain un moteur de souveraineté, d’innovation et de justice.
Bibliographie
Autor, D., Mindell, D., & Reynolds, E. (2022). The Work of the Future: Building Better Jobs in an Age of Intelligent Machines. MIT Task Force on the Work of the Future. https://workofthefuture.mit.edu
Brynjolfsson, E., & McAfee, A. (2014). The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. W. W. Norton & Company.
Bughin, J., Hazan, E., Lund, S., Dahlström, P., Wiesinger, A., & Subramaniam, A. (2018). Skill Shift: Automation and the Future of the Workforce. McKinsey Global Institute.
Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
Elish, M. C. (2019). Moral crumple zones: Cautionary tales in human-robot interaction. Engaging Science, Technology, and Society, 5, 40–60. https://doi.org/10.17351/ests2019.260
Ng, A. (2021). AI Literacy: Helping Citizens Understand and Use AI. DeepLearning.AI.
https://www.deeplearning.ai/the-batch/issue-99/
OECD. (2021). The impact of AI on the labour market: What do we know so far? OECD Science, Technology and Industry Working Papers. https://doi.org/10.1787/7c895724-en
Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press.
Tarafdar, M., Cooper, C. L., & Stich, J.-F. (2019). The technostress trifecta—Techno eustress, techno distress and design: Theoretical directions and an agenda for research. Information Systems Journal, 29(1), 6–42. https://doi.org/10.1111/isj.12169
UNESCO & EAVI. (2023). AI & Media Literacy: Developing Critical Understanding in the Age of Algorithms.
https://www.eavi.eu
World Economic Forum. (2023). Future of Jobs Report 2023. Geneva: WEF.
https://www.weforum.org/reports/the-future-of-jobs-report-2023
il ne peut pas avoir d'altmétriques.)