Les modèles traditionnels de fourniture de données se sont effondrés face à l’évolution des organisations.

Pendant longtemps, les entreprises ont traité les équipes chargées des données comme des bureaux de service, remplissant des tickets, allant chercher des chiffres, répondant à des demandes ad hoc. Ce modèle de « données en tant que service » est issu d’une époque plus simple, où les équipes ne disposaient pas d’une grande quantité de données pour commencer. À l’époque, tout allait bien.

Mais ce modèle n’est pas évolutif. Il cède sous la pression dès qu’une entreprise commence à investir de l’argent dans des systèmes de données. Vous pouvez avoir un entrepôt à l’échelle du pétaoctet et des pipelines de streaming en temps réel, mais si tout le monde tire une version légèrement différente de la même mesure, vous n’êtes pas guidé par les données.

Prenons l’exemple d’Airbnb. Avant le lancement d’une plateforme de mesure centralisée, les équipes chargées des produits, des opérations et des finances avaient chacune leur propre interprétation des chiffres clés, tels que les « nuits réservées » ou les « utilisateurs actifs ». Lorsque la direction demandait des réponses, les équipes présentaient des mesures différentes, basées sur des filtres différents, à partir de tableaux de bord différents. Ainsi, au lieu de décider de la marche à suivre, les réunions se transformaient en débats pour savoir quel chiffre était « le bon ».

Cela mine la confiance. À grande échelle, chaque chiffre est important. Lorsque les équipes importantes ne font pas confiance aux donnéeselles cessent de les utiliser. Ou pire, elles continuent à les utiliser de manière sélective pour valider ce qu’elles croient déjà. C’est ainsi que vous vous retrouvez avec des personnes intelligentes qui prennent des décisions lentes.

Les systèmes de données internes n’ont pas été conçus en tenant compte de la facilité d’utilisation, du contrôle des versions ou de la prise de décision. Et lorsque vous construisez des systèmes dans lesquels personne n’a confiance, les décisions sont bloquées, quelle que soit la rapidité ou la souplesse de l’infrastructure sur le papier.

La prolifération des tableaux de bord a semé la méfiance et entraîné une prise de décision inefficace.

Il y a trop de tableaux de bord. La plupart d’entre eux ne fonctionnent pas comme on le pense. Différents filtres, différentes échéances, différentes hypothèses. Résultat ? Les cadres intelligents obtiennent trois tableaux de bord avec trois histoires. Ce n’est pas de la perspicacité, c’est du bruit.

Demandez à votre équipe d’exploitation pourquoi le taux de désabonnement a augmenté la semaine dernière. Vous obtiendrez probablement plusieurs réponses, chacune basée sur un tableau de bord différent. Demandez à l’équipe financière de réconcilier la croissance avec les rapports d’attribution, et vous entendrez que cela dépend « de la personne à qui vous demandez ». Et le plus souvent, aucun d’entre eux ne fait entièrement confiance aux chiffres.

C’est un manque de cohérence. Les analystes passent leurs journées à expliquer de petites divergences. Les ingénieurs perdent du temps à reconstruire des ensembles de données qui existent déjà, mais avec une logique légèrement différente. Les dirigeants hésitent à agir parce qu’ils n’ont pas confiance dans les données.

Lorsque les données sont omniprésentes mais qu’il n’y a pas de vérité claire, les gens s’en remettent à leur intuition. C’est la régression. Les tableaux de bord étaient censés accélérer la compréhension. Mais s’ils conduisent plutôt à des remises en question, c’est que quelque chose d’essentiel s’est brisé.

Les dirigeants doivent regarder au-delà du volume des tableaux de bord et se poser une meilleure question : qu’est-ce qui est réellement utilisé ? Quels sont les systèmes qui sont adoptés, auxquels on fait confiance et qui sont directement liés aux décisions à fort enjeu ? Si un tableau de bord ne résiste pas à ce test, ce n’est que du bruit. Multiplier les tableaux de bord n’est pas la solution. Une meilleure appropriation, une plus grande cohérence et une meilleure réflexion sur le produit le sont.

Le problème de fond réside dans une mauvaise conception du produit appliquée aux outils de données internes.

Trop d’entreprises considèrent les données comme un sous-produit, quelque chose que vous stockez, traitez et visualisez, sans les traiter comme un produit que quelqu’un doit réellement utiliser. Les systèmes sont techniquement solides. Le langage SQL fonctionne. Les pipelines fonctionnent. Et pourtant, personne ne fait confiance aux résultats. C’est parce que les outils n’ont pas été conçus en pensant aux gens. Pas de définitions claires. Pas de mesures gérées. Pas de contrôle des versions.

Vous ne pouvez pas vous attendre à ce que les utilisateurs croient aux données s’ils les contournent constamment. Lorsque deux équipes utilisent le même terme mais appliquent une logique différente, la confusion s’installe. Lorsque des tableaux de bord semblent identiques mais affichent des résultats différents, la confiance s’érode. Et lorsque les gens commencent à contourner les outils officiels au profit de feuilles de calcul bricolées et de canaux parallèles, les dégâts s’étendent rapidement.

Il s’agit d’une complexité invisible. Les outils de données internes manquent souvent d’interfaces cohérentes, d’expérience utilisateur et de gouvernance. Ils sont traités comme des produits livrables et non comme des expériences. Il n’y a pas de propriété claire, pas d’intégration unifiée et pas de véritable responsabilité pour les résultats. Lorsque les systèmes manquent d’interprétabilité, même des pipelines parfaits ne mènent nulle part.

La prise de décision exige de la clarté. Cela signifie qu’il faut concevoir les outils de données internes de la même manière que les produits destinés aux clients, de manière intuitive, fiable et avec des contrats clairs. C’est en confondant les outils internes avec l’infrastructure que les organisations se heurtent à des difficultés. Tant que vous n’appliquerez pas une véritable réflexion sur les produits, les versions, la facilité d’utilisation, la documentation, vous continuerez à avoir les mêmes arguments à chaque réunion.

L’émergence des gestionnaires de produits de données (DPM) offre une solution à ces problèmes systémiques.

Les gestionnaires de produits de données commencent à apparaître dans les entreprises qui prennent les données internes au sérieux. Ils ne sont pas là pour gérer des tableaux de bord, mais pour s’assurer que les données soutiennent réellement les décisions. Cela signifie qu’ils doivent superviser l’expérience complète des systèmes de données internes, de la conception à la livraison et à l’impact.

Un bon DPM ne mesure pas son succès en fonction du nombre de tableaux de bord livrés. Il se concentre sur la question de savoir si les bonnes personnes ont obtenu les informations dont elles avaient besoin, au moment où elles en avaient besoin, et si ces informations les ont aidées à prendre une meilleure décision. Ils définissent la valeur en fonction de l’amélioration du flux de travail d’une personne, du lancement plus rapide d’une fonctionnalité ou de la réalisation d’un pivot stratégique avec une plus grande confiance.

Les GPA vont plus loin que la simple conservation de tableaux propres. Ils possèdent des métriques de base telles que les API, entièrement documentées, versionnées et liées à des enjeux réels tels que des budgets de plusieurs millions de dollars ou des portes de lancement. Ils construisent des outils internes, des magasins de fonctionnalités, des API d’accès, des salles blanches, comme des produits réels que les gens utilisent, régis par des accords de niveau de service réels et des boucles de rétroaction. Si quelque chose ne va pas, ils en assument la responsabilité et le réparent.

Ils savent également ce qu’il ne faut pas construire. Un pipeline brillant que personne n’utilise est une dette technique, pas un progrès. Un nouvel ensemble de données qui reproduit la logique existante ajoute un risque. Les GPA sont là pour dire non aux travaux qui paraissent impressionnants mais qui n’ont pas d’importance, afin que l’équipe puisse se concentrer sur ce qui en a.

Cette fonction est horizontale. Les indicateurs de la finance influencent les prévisions du marketing. La logique d’adoption des produits façonne la planification des opérations. Les gestionnaires de portefeuille de données veillent à ce que les données qui traversent les fonctions ne soient pas interrompues. Ils font un zoom arrière, relient les points et créent une compréhension commune. C’est ainsi que vous rétablissez la confiance entre les dirigeants. C’est ainsi que vos équipes avancent plus vite, avec moins de surprises.

Les gestionnaires de produits de données se concentrent sur l’impact plutôt que sur le volume de production

La plupart des travaux internes sur les données sont jugés en fonction du volume, du nombre de pipelines livrés, du nombre de tableaux de bord expédiés. Mais le volume ne se traduit pas en valeur. Si ces tableaux de bord n’influencent pas une décision ou n’améliorent pas un flux de travail, ils ne sont que du bruit. Les gestionnaires de produits de données travaillent différemment. Ils ne célèbrent pas la livraison. Ils mesurent les résultats.

Un GPA compétent se pose toujours la question suivante : « Cela a-t-il aidé quelqu’un à mieux faire son travail ? A-t-il permis de prendre une décision plus rapidement, de commettre moins d’erreurs, d’être plus précis ? » Si la réponse est négative, le travail ne valait pas la peine d’être fait, même s’il était techniquement valable. Cet état d’esprit fait passer l’objectif de l’activité au résultat. Il pousse les équipes à cesser de construire des choses que personne n’utilise et à commencer à résoudre des problèmes qui ont réellement de l’importance.

Vous verrez la différence dans les priorités. Les projets qui semblent sophistiqués mais qui n’ont pas d’utilisateur précis sont abandonnés. Les ensembles de données redondants ne sont pas reconstruits, ils sont remis en question. Les heures d’ingénierie ne sont pas consacrées à la recherche de cas particuliers, à moins qu’il n’y ait une exigence commerciale claire. Et en cas de compromis, l’impact l’emporte sur l’élégance.

Les gestionnaires de portefeuille de données veillent à ce que l’équipe se concentre sur ce qui est important, depuis le premier engagement jusqu’à l’utilisation en production. Ils suivent l’adoption des produits de données, les réactions des utilisateurs et l’alignement de l’entreprise. Lorsque quelque chose ne fonctionne pas, ils corrigent rapidement le tir. C’est ainsi qu’ils transforment les données internes en une plateforme de confiance pour la prise de décision, et non en un simple arriéré de déploiements.

Les décisions des dirigeants sont de plus en plus influencées par les données

La plupart des décisions importantes passent désormais par une couche de données. Qu’il s’agisse de débloquer un budget, de décider du lancement d’une fonctionnalité ou de restructurer une équipe, toutes ces décisions sont soutenues, validées ou remises en question à l’aide de mesures et de modèles internes. Si ces systèmes de données ne sont pas cohérents ou s’ils n’appartiennent pas à l’entreprise, le processus de prise de décision commence à s’effondrer.

Voici le risque : la logique du trimestre précédent change silencieusement. Les mesures dérivent. Les modèles d’attribution ne s’alignent pas. Une équipe estime que l’expérience a été un succès, une autre qu’elle ne l’a pas été. Il s’agit d’un dysfonctionnement qui existe parce que personne n’a une vue d’ensemble. Lorsque chaque équipe construit de manière isolée, vous aboutissez à un système fragmenté dans lequel personne n’a pleinement confiance.

Il s’agit d’un problème de gouvernance et non d’infrastructure. Chaque mesure clé a besoin d’une propriété claire, d’une personne responsable de la façon dont elle est calculée, versionnée et appliquée dans les équipes. Les API internes, les tableaux de bord et les produits de données doivent faire l’objet d’une gestion du cycle de vie. Vous avez besoin de règles sur ce qui compte comme « vérité », car sinon vous aurez des sources multiples et contradictoires qui apparaîtront au cours de conversations à fort enjeu.

Les GPAO comblent cette lacune. Ils ne détiennent pas les décisions, mais ils détiennent l’interface, la façon dont les données circulent, la façon dont la logique est normalisée, la façon dont le contexte est préservé. Cette propriété est importante. Elle crée un alignement. Avec une GPD en place, vous évitez les interprétations contradictoires à des moments clés et vous vous rapprochez d’une réelle clarté lorsque cela compte.

Les dirigeants devraient se poser des questions simples : À qui appartiennent les données qui alimentent nos décisions ? Nos mesures sont-elles gouvernées ? Nos interfaces internes sont-elles utilisables et fiables ?

L’essor de l’intelligence artificielle intensifie le besoin d’une gestion robuste des données

L’intelligence artificielle ne vaut que ce que valent ses données. C’est la réalité opérationnelle. À l’heure actuelle, la plupart des efforts déployés dans le cadre des projets d’intelligence artificielle ne sont pas consacrés à l’apprentissage de modèles. Ils sont consacrés au nettoyage, à la structuration et à l’alignement des pipelines de données qui les alimentent. Selon Forrester, environ 80 % des efforts déployés dans le cadre des projets d’IA sont encore consacrés à la préparation des données. Ce chiffre n’a pas baissé car la plupart des systèmes internes n’ont pas été conçus pour supporter ce nouveau niveau de précision.

À mesure que les grands modèles de langage et autres outils d’IA se développent dans l’entreprise, les données de mauvaise qualité deviennent une menace directe pour les performances. L’IA ne corrige pas les mauvaises données, elle en amplifie les effets. Une métrique trompeuse ou une dérive logique silencieuse peut conduire rapidement à des résultats erronés. Dans les environnements réglementaires, il ne s’agit pas seulement d’un problème technique. C’est une question de conformité. Des organismes de réglementation comme l’UE (via loi sur l’IA) et la Californie (via le Consumer Privacy Act) font désormais pression sur les organisations pour qu’elles introduisent une discipline de gouvernance dans les environnements de données internes.

C’est pourquoi les gestionnaires de produits de données ne sont plus facultatifs. Ce ne sont pas des coordinateurs de trafic ou des intermédiaires passifs, mais des bâtisseurs chargés de veiller à ce que les systèmes de données fondamentaux soient structurés, gouvernés et fiables. Dans les environnements à forte intensité d’IA, les gestionnaires de produits de données sont essentiels.

Ils veillent à ce que les données d’entrée soient fiables, la logique transparente et la gouvernance active. Ils établissent les contrats et les boucles de rétroaction qui rendent le déploiement de l’IA durable à grande échelle. Sans cette structure, les performances de l’IA seront imprévisibles et potentiellement dommageables. Si vous pariez votre avenir sur l’IA, vous feriez mieux de commencer par des données disciplinées.

Les dirigeants doivent évaluer de manière critique la propriété des données afin de restaurer la confiance et l’efficacité dans la prise de décision.

Les dirigeants passent beaucoup de temps à prendre des décisions basées sur des données, mais beaucoup moins de temps à se demander d’où viennent ces données, qui les possède et dans quelle mesure elles sont comprises. Cette lacune commence à faire mal. L’infrastructure de données internes croît trop rapidement et, sans une propriété claire, elle présente plus de risques que de bénéfices.

Si vous ne pouvez pas répondre à des questions élémentaires telles que « À qui appartient l’indicateur qui sous-tend cette décision budgétaire ? » ou « Quand ce modèle d’attribution a-t-il été mis à jour pour la dernière fois ? », vous avez un problème de gouvernance, et non pas un problème de pipeline. Chaque dirigeant devrait savoir quels sont les systèmes de données qui orientent les décisions et, plus important encore, si ces systèmes sont utilisés correctement.

Les gestionnaires de produits de données jouent un rôle central dans le rétablissement de cette responsabilité. Ils apportent la propriété, la structure et la transparence aux outils de données internes. Ils ne se concentrent pas sur la multiplication des tableaux de bord, mais sur l’amélioration de la confiance. Ils suivent l’adoption, remettent en question les travaux à faible impact et structurent les mesures en tenant compte du fait que l’argent réel, l’expérience client réelle et la stratégie réelle en dépendent.

Au niveau de la direction, la bonne question n’est pas « Avons-nous assez de données ? ». C’est « Avons-nous confiance dans les systèmes qui alimentent nos décisions ? » Si votre réponse n’est pas immédiate et assurée, c’est le signal. Plus d’outils ne résoudront pas le problème. C’est l’appropriation et l’alignement qui le feront. Mettez un DPM sur le coup.

Dernières réflexions

Si vos équipes sont noyées dans les tableaux de bord mais affamées d’alignement, le problème n’est pas le volume de données, mais la manière dont ces données sont détenues, gouvernées et fournies. Ce n’est pas avec un autre outil de BI que vous résoudrez le problème de l’engorgement des décisions. Vous y remédiez en traitant les données internes comme un produit, et non comme un entrepôt.

Les gestionnaires de produits de données ne sont pas des accessoires agréables. Ce sont eux qui s’assurent que vos mesures sont fiables, que vos outils internes sont utilisables et que les plus grands paris de votre entreprise sont fondés sur la clarté. Ils voient les failles qui déconnectent les équipes. Ils les comblent. Sans bruit, de manière cohérente et avec impact.

À mesure que la prise de décision devient plus dépendante des données et que l’IA renforce le besoin d’intrants propres et gouvernés, ce rôle ne fait que gagner en importance. Si votre organisation en est encore à deviner quelle version de la vérité croire, il est temps de dépasser la boîte à outils et d’investir dans les personnes qui font fonctionner les outils.

Alexander Procter

août 27, 2025

16 Min