Citation
L'auteur
Meriem Hizam
(meriem.hizam@univ-nantes.fr) - GRANEM - Université d'Angers
Copyright
Déclaration d'intérêts
Financements
Aperçu
Une industrie qui investit davantage pour échouer davantage : en 2024, l'intelligence artificielle a absorbé 252 milliards de dollars d'investissements mondiaux, quand plus de 8 projets sur 10 n'atteindront jamais la production, soit le double du taux d'échec des projets informatiques classiques. Ce paradoxe ne relève pas d'une défaillance d'exécution mais d'une erreur de cadrage : l'IA n'est pas seulement une technologie à déployer, c'est un révélateur de la cohérence interne des organisations qui s'en saisissent. Issue d'une étude empirique conduite en Grounded Theory (Hizam, 2023), nous proposons un cadre TOD (Technique, Organisation, Données) pour diagnostiquer ce qui décide réellement du succès : la maturité organisationnelle, en amont du choix de l'algorithme.
Contenu
La myopie algorithmique : quand l’IA optimise sa propre obsolescence
Un grand cabinet de conseil, cinq ans d’archives RH, un modèle d’IA chargé de présélectionner les candidatures. Sur le papier, un succès exemplaire : budget tenu, calendrier respecté, temps de tri divisé par deux. Trois ans plus tard, pourtant, les équipes deviennent homogènes (mêmes écoles, mêmes parcours, même profil sociologique).
Ce cas (loin d’être le seul) illustre un mécanisme que nous appelons la myopie algorithmique : l’incapacité d’un système techniquement fonctionnel à percevoir les effets de long terme de ses propres optimisations. Le modèle n’a pas discriminé ; il a optimisé la conformité au passé avec une précision mathématique. Il n’a pas échoué sur ses métriques ; il a optimisé sa propre obsolescence.
Aucune métrique de performance, aucun audit standard ne signale ce type de dégradation, parce qu’elle ne se manifeste que dans le temps. Le système n’est pas cassé : il est myope. Ce qui rend cette myopie particulièrement insidieuse, c’est qu’elle ne produit aucun signal d’alerte. Contrairement à l’opacité, qui crée une fracture visible, la myopie génère une cécité collective : l’ensemble de l’organisation est aveugle au même problème, pour la même raison : le modèle optimise un passé que tout le monde tient pour acquis.
Dans ce même cabinet, la myopie n’agit pas seule. Le modèle présente un second défaut, tout aussi destructeur : son opacité. Pour maximiser la performance, l’équipe de développement avait privilégié des techniques d’apprentissage non supervisé, les plus performantes pour ce type de tâche, mais aussi les plus opaques. Aucun être humain ne peut reconstituer le raisonnement interne du modèle ni identifier les variables ayant réellement pesé dans l’élimination d’un candidat.
Cette opacité produit deux comportements symétriques et également destructeurs. Certains acteurs, percevant intuitivement un appauvrissement des profils sans pouvoir le démontrer, développent une méfiance croissante envers le système et reconstituent leurs propres circuits de sourcing en parallèle, doublant ainsi les coûts sans que personne ne le formalise. D’autres, incapables d’évaluer la pertinence des choix du modèle, adoptent le comportement inverse : la déresponsabilisation. Ils délèguent intégralement leur décision de recrutement à la machine, abdiquant le jugement professionnel pour lequel ils ont été embauchés.
Investir plus, échouer plus : l’impasse du cadrage technologique
La RAND Corporation établit que plus de 80 % des projets d’IA échouent à atteindre la production, soit le double du taux d’échec des projets informatiques classiques¹. L’enquête S&P Global 2025 aggrave le constat : 42 % des entreprises ont abandonné la plupart de leurs initiatives d’IA avant la mise en production, contre 17 % un an plus tôt, un taux qui a plus que doublé en 12 mois². Le BCG établit que seules 5 % des entreprises mondiales génèrent une valeur substantielle de l’IA à grande échelle, tandis que 60 % n’en tirent aucune valeur matérielle³.
Face à ces chiffres, le réflexe managérial est prévisible : investir davantage. Les investissements corporatifs mondiaux en IA ont atteint 252 milliards de dollars en 2024⁵. Mais le taux d’échec ne baisse pas ; il augmente. Ce paradoxe a une explication clé : ce n’est pas la qualité de l’exécution qui est en cause, c’est la pertinence du cadre dans lequel elle s’inscrit. Les organisations résolvent le mauvais problème avec une efficacité croissante.
En effet, la plupart des organisations reproduisent un même réflexe sans le questionner. Un dirigeant identifie une opportunité IA. Le projet est confié à la DSI, qui le pilote avec le triangle de fer coût-délai-qualité. Ce cadre a fonctionné pour l’ERP, le CRM, les migrations cloud. Il ne fonctionne pas pour l’IA, parce que celle-ci introduit une complexité aussi organisationnelle et culturelle que technique.
Les cinq causes racines identifiées par la RAND le confirment : mauvaise définition du problème, insuffisance des données d’entraînement, fascination pour la technologie, sous-investissement dans l’infrastructure, et application de l’IA à des problèmes qui dépassent ses capacités actuelles¹. Aucune de ces causes n’est un problème de gestion de projet classique. Aucune n’est détectable par les indicateurs standards. Ce sont des défaillances de cadrage et de maturité organisationnelle ; un projet peut être dans les temps, dans le budget, et techniquement fonctionnel, tout en échouant totalement.
Un chiffre éclaire la profondeur du problème. Selon l’enquête NewVantage Partners 2025, 92 % des dirigeants data déclarent que ce sont les défis culturels et le changement organisationnel (et non la technologie) qui freinent leurs efforts pour devenir data-driven⁶. Cette statistique mérite d’être lue deux fois. Pour chaque euro investi dans les algorithmes, l’investissement critique qui détermine le succès ou l’échec se joue dans le tissu humain de l’entreprise. Les outils sont prêts. Les organisations, massivement, ne le sont pas.
Trois dissonances que la gestion de projet classique ne détecte pas
L’IA agit comme une force de mise en tension. Elle expose les dissonances entre la vision et l’exécution, entre la gouvernance et la réalité des pratiques, entre la puissance des systèmes techniques et la maturité des dynamiques humaines. Trois dissonances qui échappent systématiquement aux tableaux de bord conventionnels.
- Donnée et décision : le terrain de la myopie
L’enquête Informatica CDO Insights 2025 place la qualité et la disponibilité des données en tête des obstacles au succès de l’IA, citées par 43 % des répondants⁷. Gartner estimait dès février 2025 que 60 % des projets d’IA non soutenus par des données prêtes pour l’IA seraient abandonnés d’ici fin 2026⁴ et constate que 63 % des organisations ne disposent pas, ou ne savent pas si elles disposent des pratiques de gestion des données adaptées à l’IA⁴. La plupart des organisations partent de l’hypothèse inverse : elles présument que leurs données existantes sont exploitables parce qu’elles reçoivent des tableaux de bord hebdomadaires, sans réaliser que des données adaptées au reporting humain sont souvent inadaptées à un usage algorithmique. Quand les données encodent le passé sans correction, le modèle optimise ce passé, et c’est précisément le mécanisme de myopie illustré en ouverture.
La donnée n’est pas une ressource à exploiter ; c’est un socle à gouverner. La capacité à rendre ce socle fiable et résilient est ce qui sépare les organisations qui réussissent de celles qui accumulent les preuves de concept abandonnées.
- Algorithme et confiance : le terrain de l’opacité
Un système d’IA peut fonctionner parfaitement sur le plan technique et échouer complètement sur le plan opérationnel, parce que les utilisateurs ne comprennent pas la logique qui sous-tend ses recommandations. Plus un modèle est capable de capturer des relations complexes dans les données, moins son raisonnement est intelligible. Ce compromis performance-explicabilité traverse toutes les familles algorithmiques, et il est rarement arbitré au moment du cadrage, alors qu’il devrait l’être.
L’opacité ne produit pas seulement de la méfiance ; elle produit un phénomène plus destructeur : la déresponsabilisation. Face à une recommandation dont il ne comprend pas le raisonnement, le professionnel soit délègue intégralement son jugement à la machine, soit rejette la recommandation par principe. Dans les deux cas, le système fait perdre de la valeur. Myopie et opacité se renforcent mutuellement : un modèle myope produit des résultats dont les effets pervers sont invisibles, et l’opacité empêche quiconque de les détecter à temps.
L’explicabilité ne peut pas être un ajustement cosmétique ajouté dans le dernier sprint de développement. Elle doit être conçue comme une exigence fonctionnelle dès la première séance de cadrage, au même titre que la performance ou la conformité réglementaire.
- Puissance technologique et maturité collective : la fracture la plus irréversible
Le BCG constate que les 5 % d’entreprises générant une valeur substantielle de l’IA prévoient de former trois fois plus de collaborateurs que les entreprises en retard ³. Ce n’est pas une coïncidence. La résistance culturelle à l’IA n’est pas le caprice de collaborateurs rétifs : c’est la réponse rationnelle de professionnels confrontés à un outil qu’ils ne comprennent pas et qui menace leur perception de leur propre valeur au sein de l’organisation.
La réponse n’est pas la communication descendante, celle-ci cristallise souvent la défiance même qu’elle cherche à dissoudre. La réponse est l’expérimentation progressive : permettre aux collaborateurs de manipuler la technologie, d’en tester les limites, et de construire leur propre relation avec elle avant le déploiement à pleine échelle. Tant que l’IA reste abstraite, elle suscite le rejet. Quand ceux qui l’utiliseront participent à la construction de leur relation avec l’outil, la confiance opérationnelle émerge organiquement
Devenir « capable d’IA » avant de déployer l’IA : le diagnostic TOD
Ces trois dissonances convergent vers un constat que les données rendent désormais incontestable : une IA ne transforme rien si l’organisation n’a pas la structure interne pour en absorber la complexité. Avant de lancer toute initiative, chaque organisation devrait conduire un diagnostic structuré autour de trois dimensions interdépendantes. Ce cadre, que nous appelons TOD pour Technique, Organisation et Données, est issu d’une étude empirique mobilisant la Grounded Theory (Glaser et Strauss, 1967). L’étude a impliqué des entretiens approfondis plus de 11 heures cumulées avec des profils techniques et managériaux engagés dans des projets d’IA au sein d’organisations publiques et privées (Hizam, 2023)¹⁰.
La dimension Technique couvre la maturité de l’infrastructure, la compatibilité des systèmes, la scalabilité, les choix algorithmiques, la capacité de maintenance, les exigences de sécurité, la complexité d’intégration, etc. La dimension Organisation intègre l’alignement stratégique, le sponsorship de la direction, la clarté de la gouvernance, la maturité culturelle, la gestion du changement, la capacité à absorber l’incertitude réglementaire, etc. La dimension Données englobe la qualité, la disponibilité, la représentativité, la gouvernance, les exigences d’explicabilité, les garde-fous éthiques etc.
Point critique : ces trois dimensions ne forment pas une liste séquentielle, mais constituent un système dynamique avec des boucles de rétroaction. Un défaut de gouvernance des données produit de l’opacité algorithmique, qui alimente la méfiance des utilisateurs, qui érode le soutien de la direction, qui réduit l’investissement dans la gouvernance des données : un cercle vicieux que les indicateurs classiques ne détectent jamais.
Au sein de chaque dimension, une matrice gravité-complexité issue de l’analyse qualitative du discours des praticiens. Inspirée des matrices de criticité utilisées en gestion des risques, permet de distinguer ce qui est à la fois critique et complexe (gouvernance proactive indispensable), ce qui est grave mais simple à corriger (agir vite), et ce qui est complexe mais d’impact immédiat limité (veille active). Cette priorisation transforme un paysage de risques écrasant en un plan d’intervention structuré.
Le conseil est direct : avant de recruter un data scientist ou d’acquérir une plateforme, faites un diagnostic TOD. Vous découvrirez probablement que votre organisation n’est pas prête, et cette découverte vaut infiniment plus que de l’apprendre après 18 mois de développement et plusieurs millions investis
Ce que font les 5 % qui génèrent de la valeur
Le BCG les appelle les entreprises « future-built ». Elles génèrent 1,7 fois plus de croissance du chiffre d’affaires, 1,6 fois plus de marge d’EBIT, et 3,6 fois plus de rendement total pour les actionnaires sur trois ans. Leur schéma est identifiable et reproductible.
D’abord, elles ne lancent aucun projet d’IA sans réponse précise à une question : « Quel problème métier concret cela résout-il ? » Identifier, prioriser et industrialiser les bons cas d’usage est la première marque de maturité. Ensuite, elles investissent dans la maîtrise de leurs données avant les algorithmes. ces entreprises sont trois fois plus susceptibles d’avoir des politiques de données centralisées, supervisées par des équipes dédiées. Enfin, elles construisent la confiance par la pratique : l’enquête McKinsey 2025 établit que, parmi 25 attributs testés, la refonte des flux de travail est le facteur ayant le plus grand effet sur l’impact de l’IA sur l’EBIT, et que les organisations les plus performantes sont près de trois fois plus susceptibles d’avoir fondamentalement reconfiguré leurs processus.
Ce que ces entreprises font correspond précisément aux trois dimensions du diagnostic TOD : elles sécurisent les dimensions Données et Organisation, avant de mobiliser la dimension Technique. Ce n’est pas un hasard ; c’est la cohérence systémique que le TOD permet de diagnostiquer et que ces organisations ont construite délibérément avant de déployer le moindre modèle.
La question que la plupart des projets d’IA ne posent pas encore
Gartner prédit que plus de 40 % des projets d’IA agentique seront annulés d’ici fin 2027⁹. Le cycle investissement-déception-abandon est en train de devenir structurel. Et son coût n’est pas seulement financier : chaque initiative avortée érode la confiance des équipes, durcit les résistances culturelles, et creuse un retard compétitif que le temps seul ne comblera pas.
La question que ces données imposent n’est plus « Comment gérer notre projet d’IA ? ». Elle est : « Notre organisation est-elle prête à absorber ce que l’IA va réellement changer dans nos données, dans nos processus de décision, et dans la façon dont nos collaborateurs perçoivent leur propre rôle ? »
Car le véritable enjeu n’est pas d’augmenter l’intelligence des machines. C’est de concevoir des organisations suffisamment lucides et alignées pour être à la hauteur de celle qu’elles prétendent déployer. L’IA n’est plus un indicateur de puissance technologique : elle est devenue un révélateur de maturité cognitive collective. Et la maturité, contrairement aux algorithmes, ne s’achète pas, elle se construit, délibérément, avant que le premier modèle ne soit entraîné.
Avant votre prochain comité de pilotage IA, posez le diagnostic TOD. Évaluez la gravité et la complexité de chaque facteur de risque dans les trois dimensions. Si plus de la moitié des facteurs critiques se trouvent dans les dimensions Organisation et Données plutôt que dans la dimension Technique, votre priorité n’est pas de choisir un algorithme, elle est de construire l’organisation capable de l’accueillir.
Bibliographie
- RAND Corporation, The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed, août 2024.
- S&P Global Market Intelligence, « Voice of the Enterprise: AI & Machine Learning, Use Cases 2025 ».
- BCG, The Widening AI Value Gap: Build for the Future 2025, septembre 2025.
- Gartner, « Lack of AI-Ready Data Puts AI Projects at Risk », février 2025.
- Stanford HAI, AI Index Report 2025, chapitre Economy.
- NewVantage Partners (Wavestone), 2025 AI & Data Leadership Executive Benchmark Survey.
- Informatica, CDO Insights 2025.
- McKinsey & Company (QuantumBlack), The State of AI: Global Survey 2025.
- Gartner, « Predicts Over 40% of Agentic AI Projects Will Be Canceled by End of 2027 », juin 2025.
- Hizam, M. (2023). « Pourquoi la plupart des projets d’intelligence artificielle échouent-ils ? Taxonomie des facteurs d’échec au travers des concepts de gravité et de complexité. » AIM 2023
il ne peut pas avoir d'altmétriques.)