Citation
L'auteur
Philippe JEAN-BAPTISTE
(philippejb@icloud.com) - LEST - Laboratoire d'Économie et de Sociologie du Travail UMR 7317 I CNRS – Aix Marseille Université - ORCID : https://orcid.org/0000-0003-0656-7588
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
Depuis la diffusion massive de ChatGPT fin 2022, l’intelligence artificielle (IA) occupe une place croissante dans les discours stratégiques, les politiques publiques, et les pratiques managériales. Des fonctions jusque-là considérées comme typiquement humaines – rédactions, raisonnement, argumentation – paraissent désormais automatisables à grande échelle. Face à cette dynamique, certains annoncent une substitution prochaine de l’intelligence humaine par des systèmes d’IA générative toujours plus puissants. Harari (2024), dans Nexus, alerte sur la capacité de ces systèmes à manipuler les émotions humaines, à produire du langage crédible sans conscience, et à menacer les équilibres cognitifs et politiques des sociétés. Ces systèmes, écrit-il, ne comprennent pas ce qu’ils produisent – mais ils peuvent influencer ce que nous croyons. cette critique trouve un écho chez Tegmark (2018), qui appelle à encadrer la montée des intelligences artificielles générales par une gouvernance mondiale raisonnée.
Pourtant, ce récit linéaire d’une ascension technologique inéluctable masque une série de limites fondamentales. L’IA, aussi avancée soit-elle, reste un artefact computationnel : elle ne perçoit pas, ne ressent pas, ne contextualiser pas comme le fait un être humain. Elle ne vit pas dans un corps, ne fait pas l’expérience du monde, ne développe pas d’intentionnalité. En d’autres termes elle ne possède ni subjectivité, ni incarnation, ni conscience (Damasio, 2017; Floridi, 2019). Ces caractéristiques, propres à l’intelligence biologique, sont pourtant au cœur de nombreuses situations de travail, de décision et de management.
Alors que l’IA progresse dans des tâches spécifiques, la capacité humaine à intégrer des émotions, à mobiliser une mémoire vécue, à interpréter un contexte ambigu ou à faire preuve d’intuition reste difficilement reproductible. Ces dimensions sont particulièrement décisives en contexte managérial, om la relation, l’arbitrage, la créativité, l’adaptation et le sens jouent un rôle central (Mintzberg, 2011). Ces transformations technologiques exigent des managers qu’ils repensent leurs compétences et leurs approches, comme le soulignent Véry et Cailluet (2019) dans leur analyse des impacts de l’IA sur la recherche en gestion.
Cet article propose donc de questionner la complémentarité – et non la confusion – entre intelligence artificielle et intelligence biologique. Il vise à analyser les limites structurelles de l’IA face à certaines dimensions humaines irréductibles, puis à discuter les implications concrètes pour les organisations et les managers.
Cadre de réflexion : deux formes d’intelligence aux logiques radicalement différentes
La comparaison entre intelligence biologique et intelligence artificielle révèle des différences structurelles profondes. Loin d’être de simples variantes d’un même processus cognitif, ces deux formes d’intelligence reposent sur des fondements distincts – physiologiques, épistémologiques, relationnels – qui en conditionnent la nature, les capacités, et les limites.
Une intelligence humaine incarnée, contextuelle et sociale
L’intelligence biologique est le produit d’un organisme vivant, évolutif et sensible. Elle s’enracine dans une expérience corporelle du monde, où les perceptions, les émotions et la mémoire sensorielle participent à la construction du raisonnement (Damasio, 2017; Varela et al., 1993). Contrairement aux modèles d’IA, l’intelligence humaine n’est pas désincarnée : elle intègre des signaux émotionnels, des jugements intuitifs, et des représentations sociales.
Elle est également contextuelle : elle s’exerce dans des environnements ambigus, instables, marqués par l’incertitude et les rapports de pouvoir. Le sens que l’humain attribue à une situation dépend de son histoire, de son langage, de ses interactions et de ses affects. Cette plasticité cognitive et sociale reste inégalée par les systèmes d’IA actuels (Zuboff, 2019).
Enfin, l’intelligence humaine est intersubjective : elle se construit par l’échange, la communication, l’apprentissage social et culturel. ce que l’on nomme intelligence est autant une capacité individuelle qu’un produit collectif (Engeström, 1999).
Une intelligence artificielle calculatoire, désincarnée et probabiliste
A l’inverse, l’intelligence artificielle – même dite « générative » – repose sur une logique statistique, non consciente, non incarnée. Un modèle de type GPT ou Mistral ne « comprend » pas les textes qu’il produit : il en anticipe la vraisemblance selon une architecture mathématique fondée sur l’analyse de corpus massifs (Bommasani etal., 2022).
L’IA actuelle ne dispose ni d’intentionnalité, ni de subjectivité, ni d’émotion. Elle ne fait pas l’expérience du monde; elle l’imite. Même lorsqu’elle interagit avec un utilisateur, elle ne partage ni son histoire, ni sa mémoire, ni ses affects. Elle ne sait qu’elle « agit » (Floridi, 2019).
Enfin, ces systèmes sont probabilistes : ils sont conçus pour produire l’élément suivant le plus probable dans une séquence. Cela les rend performantes dans des contextes où la redondance domine, mais vulnérables dans des situations inédites, floues ou critiques (Bender & Koller, 2020).
Les limites actuelles de l’intelligence artificielle
Malgré ses performances croissantes, l’intelligence artificielle présente des limites fondamentales qui apparaissent particulièrement saillantes lorsqu’elle est confrontée à des situations managériales. Ces limites ne sont pas uniquement techniques : elles sont également épistémiques, relationnelles, éthiques et contextuelles.
L’absence de compréhension, d’intention et de conscience
Les modèles de langage ou de décision automatique ne « comprennent » pas les contenus qu’ils produisent. Ils n’ont pas d’intentionnalité : leurs réponses sont générées sur la base de corrélations statistiques apprises sur de vastes corpus, sans conscience du sens ni des conséquences (Bender et al., 2021). cette incapacité à interpréter réellement les contextes peut générer des réponses apparemment pertinentes mais fondamentalement inappropriées dans des situations ambigües, sensibles ou critiques – comme la gestion d’un conflit, d’une crise, ou d’un dilemme éthique.
La difficulté à traiter des situations non-structurées
L’IA excelle dans des environnements bien définis et fortement structurés (règles claires, données disponibles, objectifs mesurables). Mais elle se montre beaucoup plus fragile dans les situations floues, évolutives ou inédites – typiques du management stratégique ou du leadership de transformation. En ce sens, elle ne remplace pas la capacité humaine à improviser, reformuler, ressentir ou interpréter des signaux faibles (Davenport & Ronanki, 2018).
L’incapacité à gérer des dynamiques sociales et émotionnelles
L’intelligence managériale implique l’empathie, la régulation des émotions, la communication interpersonnelle et la lecture des intentions d’autrui. Or, l’IA reste fondamentalement asociale et désincarnée. Elle peut simuler une conversation empathique, mais ne ressent ni peur, ni doute, ni joie. Dans les environnements de travail, cette limitation devient critique lorsqu’il s’agit de motiver, accompagner ou arbitrer avec humanité.
le risque de biais, d’opacité et de déresponsabilisation
Les systèmes d’IA sont entraînés sur des données passées, qui portent les traces de biais historiques, sociaux ou culturels. De plus, leur fonctionnement peut devenir opaque, même pour leurs concepteurs (effet boîte noire). En contexte managérial, cela pose des questions majeures de redevabilité et de responsabilité : qui décide ? sur quelle base ? qui assume les conséquences ? (Rahwan et al., 2019).
Quand l’IA ne suffit pas : le cas du dilemme managérial Une manager d’équipe dans une entreprise en forte restructuration reçoit un salarié performant, mais visiblement en détresse psychologique. Celui-ci annonce qu’il vit un burn-out latent, mais qu’il souhaite malgré tout continuer à travailler sur un projet stratégique, crucial pour le trimestre. Deux chemins s’ouvrent :
Une IA générative, même fine-tunée sur des scénarios RH, peur proposer des réponses politiquement correctes. Mais elle ne ressentira ni la détresse du salarié, ni les tensions morales internes du manager, ni la dynamique collective de l’équipe. Elle ne pourra pas arbitrer entre l’humain, le stratégique et le symbolique. Ce type de situation, courant en pratique managériale, illustre ce que ni les modèles statistiques ni les algorithmes ne peuvent résoudre seuls : la complexité incarnée, émotionnelle et contextuelle du réel. |
Discussion : quelles compétences humaines à l’ère des IA génératives ?
Alors que l’IA progresse dans les tâches analytiques, rédactionnelles et prédictives, la question centrale n’est plus de savoir ce que les machines savent faire, mais ce qu’il est essentiel de préserver du côté humain ? En contexte managérial, cela renvoie à trois enjeux structurants : la revalorisation des compétences non substituables, la nécessité d’une réflexivité éthique, et la redéfinition des postures managériales.
Réaffirmer la valeur des compétences humaines non réplicables
Les managers restent les principaux dépositaires de certaines facultés que l’IA ne reproduit pas : la capacité à ressentir, arbitrer, inspirer, improviser, interpréter l’ambigu. la prise en compte des émotions, des signaux faibles, des dynamiques relationnelles ou de la confiance ne relève pas d’une simple logique computationnelle. ces compétences dites « métacognitives » ou « interactionnelles » sont au cœur de l’intelligence managériale (Rimé, 2018; Combes & Silva, 2022).
Les entreprises les plus lucides ne cherchent plus à automatiser les fonctions humaines, mais à renforcer ce qui en fait la spécificité : sens critique, intuition, écoute, leadership adaptatif. Une étude de Giraud et al. (2021) souligne que l’essor de l’IA nécessite une évolution des compétences managériales, mettant en lumière l’importance de développer des compétences techniques et non techniques pour collaborer efficacement avec l’IA.
IA + Manager : une alliance sous condition Dans une grande entreprise de distribution, une directrice marketing souhaite revoir le positionnement d’une gamme de produits. Elle utilise un modèle d’IA générative pour :
L’IA lui fournit des résultats structurés, rapides, parfois surprenants. Mais c’est elle, en tant que manage :
L’IA augmente son pouvoir d’exploration, mais ne décide pas à sa place. Elle reste l’intelligence décisionnelle incarnée, à la croisée des données, du contexte et des valeurs. |
Développer une réflexivité éthique et critique
La diffusion de l’IA générative dans les processus métiers transforme aussi les responsabilités. Les managers ne peuvent plus déléguer leurs décisions à des systèmes sans en comprendre les logiques ou les biais ? la « gouvernance des algorithmes » devient une compétence clef : il faut interroger, cadrer, contextualiser les productions algorithmiques, sans les sacraliser (Rahwan et al., 2019; Zicari et al., 2021).
Cela suppose une posture réflexive, mais aussi une culture technique minimale : les managers doivent comprendre comment fonctionnent les modèles qu’ils utilisent ou supervisent, pour en faire des alliés plutôt que des boîtes noires intimidantes.
Redéfinir les rôles et les postures managériales
La figure du manager évolue. Il n’est plus seulement planificateur ou contrôleur. Il devient médiateur entre les systèmes, les équipes et les enjeux humains. Il facilite l’appropriation des outils sans nier leurs limites. Il est responsable d’un cadre d’usage, d’un climat de confiance, et d’un projet collectif où la technique reste un levier, non un substitut.
La complémentarité IA/manager ne se décrète pas ? Elle se construit. Et cette construction est autant organisationnelle qu’éthique et cognitive.
Conclusion
Les éléments présentés confirment que les limites actuelles de l’intelligence artificielle – en particulier dans ses versions génératives – ne relèvent pas seulement d’un retard technologique. Elles sont enracinées dans des différences structurelles entre intelligence biologique et intelligence computationnelle : la première est incarnée, sensible, contextuelle; la seconde est statistique, désincarnée, et aveugle au sens. Cette distinction fondamentale éclaire les situations managériales où l’intelligence humaine reste décisive.
Ce constat ne doit pas conduire à un rejet dogmatique de l’IA, mais à une réflexion sur ses usages justes. L’IA générative peut jouer un rôle puissant d’assistant créatif, d’amplificateur cognitif ou d’explorateur de données, à condition d’être encadrée, contextualisée et interprétée par des humains interprétants – qui semble prometteuse (McAfee et al., 2023; Davenport et al., 2022).
Ce type d’hybridation invite également à repenser les compétences attendues des managers, non pas comme simples superviseurs de l’automatisation, mais comme architectes du sens, garants de la qualité des interactions et de la responsabilité des décisions. Cela ouvre des perspectives intéressantes pour la recherche, notamment sur les pratiques concrètes de collaboration IA-Humain, les dynamiques d’appropriation technologique, ou encore les tensions éthiques émergentes.
Enfin, cette discussion interroge aussi le rôle de la formation et du développement managérial : dans un monde où certaines tâches deviennent automatisables, comment (re)former à ce qui reste inimitable ?
Bibliographie
- Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots : Can Language Models Be Too Big? 🦜. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610‑623. https://doi.org/10.1145/3442188.3445922
- Bender, E. M., & Koller, A. (2020). Climbing towards NLU : On Meaning, Form, and Understanding in the Age of Data. In D. Jurafsky, J. Chai, N. Schluter, & J. Tetreault (Éds.), Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (p. 5185‑5198). Association for Computational Linguistics. https://doi.org/10.18653/v1/2020.acl-main.463
- Combes, V., & Silva, F. (2022). Renouveler la communication managériale par l’intelligence relationnelle. Communication & management, 19(1), 55‑66. https://doi.org/10.3917/comma.191.0055
- Damasio, A. R., & Nau, J.-C. (2017). L’ordre étrange des choses : La vie, les sentiments et la fabrique de la culture. Odile Jacob.
- Davenport, T. H., & Miller, S. M. (2022). Working with AI : Real Stories of Human-Machine Collaboration. The MIT Press. https://doi.org/10.7551/mitpress/14453.001.0001
- Davenport, T. H., & Ronanki, R. (2018, janvier 30). Artificial Intelligence for the Real World. Harvard Business Review. https://hbr.org/2018/01/artificial-intelligence-for-the-real-world
- Floridi, L. (2019). The Logic of Information : A Theory of Philosophy as Conceptual Design (1re éd.). Oxford University PressOxford. https://doi.org/10.1093/oso/9780198833635.001.0001
- Giraud, L., Hernandez, S., Autissier, D., & McGonigal, A. (2021). L’Évolution des Compétences Managériales face à l’essor de l’Intelligence Artificielle : Une approche par les Méthodes Mixtes. Management & Avenir, 122(2), 143‑169. https://doi.org/10.3917/mav.122.0143
- Harari, Y. N. (2024). Nexus : A Brief History of Information Networks from the Stone Age to AI. Random House.
- McAfee, A., Rock, D., & Brynjolfsson, E. (2023). How to Capitalize on Generative AI. Harvard Business Review. https://hbr.org/2023/11/how-to-capitalize-on-generative-ai
- Mintzberg, H. (2011). Managing. Berrett-Koehler.
- Rahwan, I., Cebrian, M., Obradovich, N., Bongard, J., Bonnefon, J.-F., Breazeal, C., Crandall, J. W., Christakis, N. A., Couzin, I. D., Jackson, M. O., Jennings, N. R., Kamar, E., Kloumann, I. M., Larochelle, H., Lazer, D., McElreath, R., Mislove, A., Parkes, D. C., Pentland, A. ‘Sandy’, … Wellman, M. (2019). Machine behaviour. Nature, 568(7753), 477‑486. https://doi.org/10.1038/s41586-019-1138-y
- Rimé, B. (2009). Le partage social des émotions. Presses universitaires de France.
- Tegmark, M. (2018). Life 3.0 : Being Human in the Age of Artificial Intelligence. PENGUIN UK.
- Varela, F. J., Thompson, E., & Rosch, E. (1993). The embodied mind : Cognitive science and human experience (14. print.). MIT Press.
- Véry, P., & Cailluet, L. (2019). Intelligence artificielle et recherche en gestion. Revue française de gestion, 285(8), 119‑134. https://doi.org/10.3166/rfg.2020.00405
- Zicari, R. V., Brusseau, J., Blomberg, S. N., Christensen, H. C., Coffee, M., Ganapini, M. B., Gerke, S., Gilbert, T. K., Hickman, E., Hildt, E., Holm, S., Kühne, U., Madai, V. I., Osika, W., Spezzatti, A., Schnebel, E., Tithi, J. J., Vetter, D., Westerlund, M., … Kararigas, G. (2021). On Assessing Trustworthy AI in Healthcare. Machine Learning as a Supportive Tool to Recognize Cardiac Arrest in Emergency Calls. Frontiers in Human Dynamics, 3. https://doi.org/10.3389/fhumd.2021.673104
- Zuboff, S. (2019). The age of surveillance capitalism : The fight for a human future at the new frontier of power (First edition). PublicAffairs.
Crédits
Image générée par ChatGPT 4o
il ne peut pas avoir d'altmétriques.)