Citation
L'auteur
Charles Ngando Black
(cngando@msn.com) - (Pas d'affiliation)
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
Les entreprises investissent massivement dans la gestion et l’exploitation des données. Selon Gartner (2023a), les dépenses mondiales dans ce domaine ont dépassé 200 milliards de dollars, et cette tendance est en forte croissance. Pourtant, seuls 27 % des décideurs estiment obtenir une véritable valeur métier de leurs données.[1] Ce paradoxe prend racine dans le développement des données, qui détermine la qualité, l’accessibilité et le potentiel d’exploitation des données.
Gartner (2023b) estime que 85% des projets Big Data échouent, en grande partie parce que les exigences liées aux données ne sont pas prises en compte dès leur conception. Cette lacune affecte directement le déroulement des projets parce qu’elle oblige les équipes à restructurer ou adapter en cours de route leurs modèles et flux de données. Ces ajustements tardifs et répétés entraînent des retards, des surcoûts et une complexité accrue dans l’intégration des données aux systèmes existants.
Au-delà des projets, IDC (2022) estime que 60% du temps consacré aux données est absorbé par des tâches répétitives de nettoyage et de restructuration. Cette charge pèse sur la gestion du cycle de vie des données, ralentit les opérations et limite l’utilisation des données pour les décisions. Les équipes métier passent plus de temps à corriger des incohérences qu’à analyser les données, ce qui retarde les initiatives stratégiques et opérationnelles.
Ces observations révèlent les limites d’une approche non structurée du développement des données, caractérisée par la fragmentation des sources de données, les incohérences analytiques et la dépendance excessive aux équipes IT. Ces faiblesses perturbent les opérations, compliquent la prise de décision, augmentent les coûts et réduisent l’agilité des organisations.
Cet article présente les solutions qui permettent de les surmonter et d’accroître la valeur métier et stratégique des données.
Les freins à une exploitation efficace des données
Trois obstacles majeurs entravent la valorisation des données en entreprise : la fragmentation des sources, l’absence de standards communs et la dépendance excessive des équipes métier vis-à-vis de l’IT. Ces facteurs réduisent l’accessibilité et altèrent la qualité des données, ce qui rend leur utilisation plus complexe et plus coûteuse. Ils se renforcent mutuellement, aggravant leurs effets négatifs et compromettant l’efficacité des analyses ainsi que la création de valeur. Ces difficultés montrent que le potentiel des données reste largement inexploité.
La fragmentation des sources de données : un frein à la consolidation et à l’exploitation
Dans les entreprises, les données sont dispersées entre plusieurs systèmes et stockées dans des formats hétérogènes. Cette fragmentation découle souvent d’une accumulation historique de solutions technologiques disparates ou d’une absence de stratégie d’intégration des données lors du développement des systèmes d’information. Faute d’une structuration adaptée, l’analyse et l’exploitation des données nécessitent un travail de consolidation et de nettoyage, qui ralentit les processus décisionnels et accroît les coûts opérationnels.
À titre d’illustration, une chaîne de distribution multicanale qui gère des ventes en magasin, en ligne et via un programme de fidélité a besoin d’un identifiant client unique pour obtenir une vision unifiée de ses consommateurs. Si cet identifiant n’est pas défini, les données des achats en ligne et en magasin ne peuvent être rapprochées de manière efficace et rapide. Cette situation impose aux analystes des consolidations répétitives, qui retardent l’exécution des campagnes marketing ciblées et personnalisées. L’automatisation peut atténuer ces difficultés, mais elle ne suffit pas toujours à compenser les limites d’une architecture des données inadaptée.
Dans un autre contexte, un groupe industriel qui exploite des capteurs IoT sur ses lignes de production peut se heurter à des formats de données hétérogènes issus de machines de différents fournisseurs. Une harmonisation préalable, reposant sur la définition de standards communs et l’intégration de protocoles normalisés, permettrait d’assurer une structuration homogène des données dès leur collecte. Sans cette harmonisation, chaque capteur produit des données avec des structures et des unités de mesure distinctes, nécessitant un retraitement avant toute analyse. L’incapacité à intégrer ces données en temps réel ralentit la détection des anomalies et complique la maintenance prédictive.
Cette fragmentation des données ne résulte pas uniquement d’un empilement de technologies hétérogènes. Elle est souvent amplifiée par une gouvernance insuffisante, où les standards d’intégration et de structuration ne sont pas clairement définis. Faute de règles communes, chaque système fonctionne en silo, rendant la consolidation et l’exploitation des données encore plus difficiles.
L’absence de standards communs : un risque d’incohérence et de non-conformité
L’exploitation efficace des données repose sur l’adoption de standards communs, qui définissent à la fois des règles (structuration, format, usage) et des données de référence (valeurs normées, listes de codes, classifications). En l’absence de règles et données communes, chaque département applique ses propres référentiels, ce qui crée des écarts dans les analyses et compromet la fiabilité des indicateurs clés.
L’application cohérente de ces standards repose sur :
-
- Un référentiel d’architecture des données : Il regroupe les règles de structuration, les modèles de données et les formats normalisés. Il assure l’homogénéité dans la conception des systèmes et la gestion des flux d’information.
- Un référentiel des données-maîtres : Il centralise les informations clés partagées entre plusieurs systèmes (clients, produits, comptes, transactions). Il garantit la cohérence et l’unicité des données essentielles.
Sans ces référentiels, les données restent dispersées et incohérentes, ce qui complique leur rapprochement et leur exploitation. Les équipes doivent retraiter les informations avant chaque analyse, ce qui allonge les délais et augmente les risques d’erreur. L’absence de cadre structuré freine également la traçabilité et la mise en conformité, ce qui rend les audits plus coûteux et plus longs. Selon Capgemini (2022), les entreprises dépourvues d’une gouvernance bien définie supportent des coûts d’audit supérieurs de 50%, en raison d’efforts correctifs requis pour assurer leur conformité.
Par exemple, une entreprise de services financiers peut constater des écarts significatifs dans le calcul de son indicateur de « valeur vie client » selon les départements. Tandis que l’équipe marketing s’appuie sur les dépenses moyennes sur cinq ans, la direction financière peut quant à elle intégrer des coûts indirects sur dix ans. En l’absence de standards communs, chaque service applique ses propres règles de calcul, tandis qu’en l’absence d’un référentiel de données-maîtres, les sources d’information divergent, empêchant une consolidation fiable des résultats. Cette incohérence fausse l’analyse de rentabilité et complique la prise de décision.
Dans le secteur bancaire, autre illustration, la gestion des obligations réglementaires est particulièrement impactée par l’absence de référentiels partagés. Une banque opérant dans plusieurs juridictions doit assurer la traçabilité de ses transactions pour répondre aux exigences de conformité. Sans standards d’architecture des données, les structures de données diffèrent selon les systèmes. Sans référentiel de données-maîtres, les transactions sont enregistrées avec des variations locales, ce qui rend les rapprochements complexes. Lors d’un audit, l’établissement doit mobiliser d’importantes ressources pour reconstituer l’historique des transactions et démontrer la fiabilité des informations reportées.
La dépendance excessive des métiers vis-à-vis de l’IT : un frein à l’agilité et à la réactivité
Dans de nombreuses organisations, l’accès aux données reste centralisé et dépend fortement des équipes IT. Ce mode de fonctionnement, souvent hérité de contraintes techniques historiques, complique l’autonomie des équipes métier et allonge les délais de prise de décision. L’absence d’outils adaptés en libre-service et de processus d’accès standardisés empêche les analystes métier d’exploiter directement les données disponibles.
Par exemple, une entreprise e-commerce qui souhaite ajuster en temps réel ses campagnes publicitaires doit analyser les ventes quotidiennes et le comportement des clients. Si ces données ne sont accessibles que via l’entrepôt de données géré par l’IT, chaque requête doit être traitée manuellement par un analyste technique, ce qui entraîne un délai de plusieurs jours avant d’obtenir les résultats. Ce retard réduit la capacité d’optimisation en temps réel des campagnes et impacte directement la rentabilité des actions publicitaires.
Dans un autre cas, un directeur financier qui prépare un reporting trimestriel consolidé peut avoir à extraire des données comptables issues de plusieurs filiales. En l’absence de politique claire d’accès aux données financières, chaque demande doit passer par un administrateur IT, ce qui allonge les délais de production des rapports et retarde la prise de décision. Selon IDC (2023), 70% des entreprises fonctionnent encore selon ce modèle, ce qui réduit la réactivité des analystes métier et impacte directement la performance organisationnelle.
Une interdépendance des freins qui aggrave leur impact
Les trois obstacles cités ci-avant sont étroitement liés : La fragmentation des données complique leur standardisation, tandis que l’absence de règles claires renforce la dépendance des métiers à l’IT. Ces problématiques, en s’alimentant mutuellement, limitent l’autonomie des analystes métier et augmentent les coûts de gestion des données.
Plutôt que de corriger les effets de ces obstacles a posteriori, il est possible d’agir en amont pour structurer, gouverner et exploiter efficacement les données dès leur développement. Cette approche proactive constitue le fondement du Data by Design.
Repenser le développement des données pour maximiser leur valeur métier et stratégique
Aujourd’hui, le développement des données repose encore souvent sur une approche technique, où les choix sont dictés par les contraintes des systèmes et des architectures existantes. Les exigences métier et transverses – telles que la qualité, la sécurité ou la protection des données – sont rarement intégrées dès la conception et font l’objet d’ajustements tardifs une fois les données en production. Cette approche entraîne des difficultés d’exploitation, une moindre fiabilité des analyses et une augmentation significative des coûts correctifs. La correction de ces écarts mobilise des ressources supplémentaires et allonge les délais de mise à disposition des données exploitables, ce qui ralentit la réactivité des organisations face aux enjeux métier.
L’intégration des exigences métier dès la conception des données permet de limiter ces inefficacités. En structurant le développement autour d’une gouvernance rigoureuse et d’une exploitation optimisée, les entreprises réduisent les coûts correctifs et maîtrisent mieux les investissements en gouvernance. Cette approche améliore également l’agilité et la réactivité face aux enjeux métiers. Elle repose sur quatre piliers fondamentaux :
-
- Identifier et intégrer les exigences dès le début : qualité, conformité, interopérabilité et besoins des métiers doivent être définis en amont pour éviter les ajustements tardifs.
- Se doter de standards communs : garantir des règles homogènes en matière de qualité, sécurité et protection des données, afin d’assurer une cohérence globale et une meilleure interopérabilité.
- Améliorer l’autonomie des équipes métier : simplifier l’accès aux données et leur exploitation sans dépendance excessive aux équipes techniques.
- Tout documenter : structurer la connaissance des données à travers dictionnaires, glossaires et règles de gestion, pour garantir leur bonne utilisation et leur fiabilité.
Une telle structuration permet non seulement d’améliorer l’exploitation des données, mais aussi de renforcer la capacité des organisations à s’adapter rapidement aux évolutions stratégiques et opérationnelles.
Structurer les données dès la conception
Structurer les données dès leur conception permet d’assurer leur cohérence, leur interopérabilité et leur exploitabilité immédiate. Cette approche garantit que les données créées dans un projet pourront être facilement intégrées aux systèmes existants, utilisées de manière homogène et réutilisées sans retraitement coûteux.
Cette structuration repose sur trois éléments fondamentaux :
-
- Des standards communs pour garantir la compatibilité et la qualité
- Définir des modèles de données unifiés pour assurer une structuration cohérente et éviter les divergences entre systèmes.
- Adopter des règles de format, de validation et d’interopérabilité pour éviter les retraitements et faciliter l’intégration avec d’autres environnements.
- Mettre en place des référentiels partagés pour assurer la convergence des données critiques (clients, produits, transactions).
- Une intégration des exigences métier et transverses dès le développement
- Prendre en compte les besoins métier dès la conception des schémas et des flux de données, afin d’éviter les ajustements tardifs.
- Intégrer des exigences de qualité, conformité et sécurité directement dans les processus de développement des données.
- Favoriser une approche scalable et adaptable, permettant d’accompagner l’évolution des usages et des systèmes.
- Un cadre structurant pour une exploitation immédiate et efficace des données
- Concevoir les données pour qu’elles puissent être exploitées dès leur création sans nécessiter de retraitements.
- Faciliter leur intégration dans les processus analytiques et décisionnels en assurant une compatibilité native avec les usages métier.
- Des standards communs pour garantir la compatibilité et la qualité
Pour illustrer, une entreprise manufacturière qui collecte des données de production, de maintenance et de logistique doit garantir leur alignement sur un modèle unique et structuré. En standardisant les formats et en intégrant les exigences métier dès la conception, elle s’assure que ces données seront immédiatement exploitables pour optimiser les performances industrielles et anticiper les interventions de maintenance.
Dans le secteur du commerce, autre exemple, une enseigne qui définit un identifiant client unique dès la conception de son système d’information évite les consolidations manuelles. Cette structuration initiale permet une vision complète du parcours client et facilite l’optimisation des campagnes marketing.
Selon Deloitte (2023), une structuration anticipée réduit de 30 % le temps consacré au nettoyage et à la consolidation des données, permettant ainsi une exploitation plus rapide et plus efficace.
Encadrer le cycle de développement des données
Garantir la fiabilité, l’accessibilité et la conformité des données implique d’encadrer leur cycle de développement dès leur création. Cela signifie intégrer des règles, des responsabilités et des mécanismes de contrôle tout au long du processus de développement des données, afin d’assurer une exploitation fluide et sécurisée.
Trois axes sont essentiels pour structurer ce cadre :
-
- Définir des rôles et responsabilités clairs
- Assigner des data owners (garants des usages métier) et des data stewards (garants de la qualité et de la conformité).
- Clarifier qui est responsable de la collecte, de l’intégration et de la mise à jour des données.
- Établir des règles de développement et de gestion des données
- Définir des standards de structuration, de format et d’intégration pour assurer l’interopérabilité entre systèmes.
- Mettre en place des règles de qualité, de validation et de gouvernance dès la conception pour éviter les ajustements tardifs.
- Encadrer la gestion des accès aux données pour garantir la sécurité et la conformité réglementaire.
- Mettre en place des mécanismes de contrôle et d’amélioration continue
- Automatiser la traçabilité et l’auditabilité des données pour assurer leur conformité et détecter rapidement les anomalies.
- Définir des processus d’évaluation et d’optimisation du cycle de vie des données pour éviter l’obsolescence et garantir leur pertinence dans le temps.
- Définir des rôles et responsabilités clairs
Pour illustrer, une entreprise bancaire qui définit des niveaux d’accès et des règles de gestion des données personnelles dès la conception de ses systèmes garantit une protection renforcée des informations clients et une conformité aux réglementations en vigueur. Dans l’industrie pharmaceutique, organiser dès l’origine la traçabilité des données de recherche et de production permet de garantir le respect des normes et d’éviter des ajustements tardifs et coûteux.
Selon Capgemini (2022), un cadre de développement des données bien intégré réduit de 40 % les coûts liés aux audits et simplifie les processus de mise en conformité.
Documenter et formaliser la connaissance des données
Même lorsque les données sont bien développées et encadrées, leur exploitation reste limitée si leur connaissance n’est pas formalisée et partagée. Sans un référentiel centralisé, les définitions divergent, les erreurs analytiques se multiplient et l’intégration de nouvelles sources devient complexe.
Trois leviers sont essentiels pour structurer cette connaissance :
-
- Standardiser et centraliser la documentation
- Définir un dictionnaire de données pour aligner les définitions et garantir une interprétation homogène.
- Élaborer un glossaire métier afin de standardiser les concepts et éviter les divergences d’analyse.
- Structurer les métadonnées pour préciser le contexte, la provenance et les usages des données.
- Faciliter l’accès aux connaissances sur les données
- Déployer des référentiels partagés accessibles aux équipes métier et techniques.
- Mettre en place des mécanismes de recherche et de consultation permettant d’accéder rapidement aux informations utiles.
- Instaurer une gestion dynamique et collaborative de la documentation
- Mettre en place des processus de mise à jour continue pour éviter l’obsolescence des référentiels.
- Encourager l’adoption d’outils collaboratifs, permettant aux équipes d’enrichir et de maintenir la documentation en fonction des évolutions métier et technologiques.
- Standardiser et centraliser la documentation
Dans une entreprise de télécommunications, l’adoption d’un glossaire centralisé garantit que le taux de résiliation client est calculé selon des critères uniformes, évitant ainsi les écarts d’interprétation entre départements. Dans le secteur du e-commerce, autre exemple, la mise en place d’un catalogue des données produit et client dès la conception facilite l’intégration des systèmes logistiques et commerciaux, accélérant ainsi les échanges d’informations et l’automatisation des processus.
Faciliter l’accès aux données pour renforcer l’autonomie des métiers
L’exploitation des données ne doit pas être entravée par une dépendance excessive aux équipes IT. Les métiers doivent pouvoir accéder aux informations nécessaires de manière fluide et autonome, sans passer par des extractions manuelles ni attendre des traitements techniques. Une gestion centralisée et restrictive des accès limite la réactivité des équipes métier et mobilise inutilement des ressources IT sur des tâches répétitives.
Encourager l’autonomie des métiers repose sur trois leviers clés :
-
- Déployer des interfaces accessibles et adaptées aux besoins métier
- Intégrer des tableaux de bord interactifs et des solutions analytiques en libre-service.
- Proposer des outils ergonomiques facilitant la recherche et la consultation des données sans compétences techniques avancées.
- Encadrer et sécuriser les accès sans créer de blocages
- Définir des règles claires d’habilitation et de contrôle garantissant la confidentialité et la traçabilité des accès.
- Mettre en place des mécanismes de gestion des droits dynamiques, permettant d’ajuster l’accès aux données en fonction des responsabilités et des usages.
- Promouvoir une culture de l’exploitation autonome des données
- Former les équipes métier à l’usage des outils analytiques et aux bonnes pratiques d’exploitation des données.
- Encourager une collaboration active entre IT et métiers pour adapter les solutions aux besoins évolutifs.
- Déployer des interfaces accessibles et adaptées aux besoins métier
Par exemple, une banque qui met à disposition des tableaux de bord interactifs permet à ses conseillers d’accéder en temps réel aux informations clients, facilitant des recommandations immédiates et adaptées. De même, dans le marketing digital, une entreprise qui fournit des solutions analytiques accessibles aux équipes métier leur permet de suivre l’évolution des campagnes publicitaires et d’ajuster leurs stratégies sans dépendre d’extractions manuelles.
Une approche structurante pour maximiser la valeur des données
L’adoption d’une approche structurée dans le développement des données permet aux organisations de passer d’une gestion réactive à une exploitation optimisée et proactive. En intégrant dès la conception des standards, des modèles et des référentiels partagés, les entreprises assurent la qualité, la conformité et l’accessibilité immédiate des données.
Les bénéfices d’une telle approche sont multiples :
-
- Réduction des coûts liés aux corrections et aux retraitements, grâce à des données exploitables sans ajustements a posteriori.
- Amélioration de la fiabilité des analyses, en garantissant une structuration cohérente et une gouvernance encadrée.
- Accélération des décisions stratégiques, en rendant les données immédiatement accessibles et exploitables par les métiers.
En structurant le développement des données, les entreprises sécurisent leur capacité à exploiter efficacement leurs actifs informationnels, tout en réduisant les efforts nécessaires pour assurer leur qualité et leur conformité.
Conclusion et recommandations
Le Data by Design incarne une transformation profonde de la manière dont les entreprises conçoivent et exploitent leurs données. En intégrant dès la conception les principes de structuration, de gouvernance et d’accessibilité, cette approche permet de surmonter les freins traditionnels que sont la fragmentation des sources, l’absence de standards et la dépendance excessive des métiers vis-à-vis de l’IT.
Les bénéfices sont concrets et progressifs : une réduction des coûts de correction, une amélioration de la fiabilité des analyses et une accélération des décisions stratégiques. Plus encore, le Data by Design renforce l’agilité des organisations, leur permettant d’exploiter leurs données de manière proactive et alignée sur les besoins métier.
Pour les entreprises prêtes à s’engager dans cette démarche, trois étapes clés s’imposent :
- Définir une vision claire : Identifier les objectifs métier et les cas d’usage prioritaires pour guider la structuration des données.
- Mettre en place des référentiels partagés :
- Architecture des données, pour standardiser les modèles et les formats.
- Référencement des données, pour garantir la cohérence et l’unicité des informations clés.
- Documentation des données, pour partager les définitions métier (glossaire métier), structurer la connaissance des données (dictionnaire) et faciliter l’exploitation des actifs informationnels (catalogue).
- Favoriser l’autonomie des métiers : Déployer des outils en libre-service et former les équipes à l’exploitation des données, tout en encadrant les accès pour garantir la sécurité et la conformité.
Adopter le Data by Design, c’est faire de la donnée un véritable levier de performance, en alignant son développement sur les enjeux métier et stratégiques. Cette transformation ne se limite pas à une meilleure structuration : elle conditionne l’agilité des entreprises, leur capacité d’innovation et leur résilience face aux évolutions du marché. Dès lors, la question n’est plus de savoir si les organisations doivent intégrer cette approche, mais comment elles peuvent l’opérationnaliser efficacement pour en maximiser les bénéfices.
Ces enjeux sont au cœur de mon prochain ouvrage, « Connaissance des données – L’art d’opérationnaliser la gouvernance des données », qui explore comment dépasser une gouvernance purement administrative pour transformer la donnée en un levier d’impact métier. Son chapitre 2, qui est entièrement consacré au Data by Design, étudie en détail l’exploitation la connaissance des données dans le développement des données projets, que ce soit en cycle en V ou en mode Agile.
[1] Par valeur métier, il faut entendre l’impact direct et mesurable des données sur les performances et la stratégie d’une organisation. Cela inclut l’optimisation des processus, l’amélioration de la prise de décision, la réduction des risques, l’innovation et la création de nouveaux services ou modèles économiques.
Bibliographie
Capgemini. (2022). The cost of compliance audits in data management. Capgemini Research Institute. https://www.capgemini.com
Deloitte. (2023). Data management and efficiency report. Deloitte Insights. https://www2.deloitte.com
Gartner. (2023a). Forecast: Global spending on data management and analytics. Gartner, Inc.
Gartner. (2023b). Why big data projects fail. Gartner, Inc.
IDC. (2022). The cost of poor data management. International Data Corporation.
IDC. (2023). Data utilization and exploitation: Overcoming challenges. International Data Corporation.
McKinsey & Company. (2022). Improving agility through data autonomy. McKinsey & Company. https://www.mckinsey.com
Ngando Black, C. (2025, à paraître). Connaissance des données: L’art d’opérationnaliser la gouvernance des données. Management & DataScience.
Nb. de commentaires
0