Une infrastructure de données inadéquate comme obstacle à l’adoption de l’IA générative
L’IA générative est essentielle. Mais la plupart des organisations n’ont pas encore l’infrastructure de données nécessaire pour la gérer. La question n’est pas de savoir si vos équipes sont enthousiastes à l’idée de l’IA, mais si vos systèmes peuvent évoluer suffisamment rapidement, proprement et à grande échelle. À l’heure actuelle, pour de nombreuses entreprises, la réponse est non.
Les pipelines existants ralentissent les choses. Les données sont réparties entre les plateformes et les départements, isolées, souvent obsolètes et impossibles à coordonner efficacement. C’est un obstacle pour l’IA générative. Ce type d’IA s’appuie fortement sur des données de haute qualité, unifiées et accessibles pour produire des résultats utiles. En l’absence d’intégrations en temps réel et de gouvernance des données, le passage de l’IA générative du concept au déploiement réel s’apparente davantage à une expérience scientifique qu’à une stratégie d’entreprise fondamentale.
Les dirigeants sont souvent surpris par l’ampleur du défi. Leurs équipes peuvent avoir des prototypes d’IA qui fonctionnent en silos, mais le passage de ces agents à la production est bloqué. Pourquoi ? Les données ne sont pas prêtes. L’architecture ne prend pas en charge les flux de travail itératifs de l’IA. Vous ne pouvez pas construire des systèmes intelligents sur des fondations fragmentées.
Voici ce qui vous ouvre les yeux : Selon un rapport de Gartner datant de février 2024, près de deux tiers des professionnels de la gestion des données d’entreprise ont admis que leur entreprise n’était pas prête pour l’IA générative. Et gardez ceci à l’esprit : d’ici 2026, Gartner prévoit que 60 % des projets d’IA d’entreprise échoueront en raison d’une mauvaise base de données. Il ne s’agit pas d’une supposition. C’est un signal clair que les entreprises sous-estiment encore l’importance d’une infrastructure de données moderne.
Si vous dirigez une entreprise qui investit déjà dans l’IA, posez-vous les questions difficiles. Votre pipeline est-il rapide et flexible ? Les données sont-elles accessibles de manière cohérente dans toute l’entreprise ? Si ce n’est pas le cas, vous n’êtes pas en retard, mais vous courez un risque. Il ne s’agit pas de suivre les tendances. Il s’agit de maintenir vos initiatives d’IA en vie et de s’assurer qu’elles génèrent de la valeur. Pour ce faire, il faut commencer par corriger les données à la racine.
Des partenariats stratégiques dans le cloud et des innovations en matière de plateformes comme solutions aux défis liés aux données.
L’IA ne repose pas sur des promesses. Elle s’appuie sur des données propres, connectées et volumineuses. Les entreprises qui l’ont compris ne se contentent pas de parler d’IA, elles construisent de véritables systèmes qui fonctionnent. Le mouvement le plus concret qui se produit en ce moment : des partenariats solides et une innovation agressive des plateformes dans l’ensemble de l’écosystème du cloud. C’est là que se trouvent les véritables progrès.
SAP a fait un choix judicieux en lançant son Business Data Cloud. Plus qu’un produit, il s’agit d’une structure centralisée qui unifie les données SAP et non SAP, qu’elles soient structurées ou non. L’IA ne se préoccupe pas de l’emplacement de vos données, elle a juste besoin qu’elles soient disponibles, gouvernées et intégrées. C’est exactement ce que SAP permet ici.
Christian Klein, PDG de SAP, a décrit Business Data Cloud comme « le nouveau centre de gravité des données d’entreprise » lors de la conférence téléphonique sur les résultats du premier trimestre 2025 de l’entreprise. Il n’exagère pas. La plateforme transforme les données fragmentées de l’entreprise en quelque chose de fonctionnel, des couches logiques d’informations qui prennent en charge l’IA, les tableaux de bord et l’analyse de manière rationalisée. Le partenariat de SAP avec Databricks montre qu’ils sont sérieux au sujet de la fusion des systèmes d’entreprise avec des capacités de données de haute performance.
Sur un autre plan, Oracle a franchi une étape importante en intégrant ses services de base de données cloud directement à l’intérieur des centres de données d’AWS, d’Azure et de Google Cloud. Cela change complètement la dynamique entre les solutions de base de données traditionnelles et les plateformes hyperscale. Il réduit les frictions dans les environnements multicloudqui est l’un des principaux obstacles pour les entreprises qui déploient l’IA dans des infrastructures dispersées.
Le PDG d’Amazon, Andy Jassy, n’a pas mâché ses mots. Il a déclaré lors de la conférence téléphonique d’Amazon sur les résultats du 1er trimestre 2025 : » Si une entreprise veut réaliser le plein potentiel de l’IA, elle aura besoin de son infrastructure et de ses données dans le cloud. » Il a raison. Vous ne pouvez pas mettre à l’échelle la détection des biais, l’entraînement des modèles ou les interactions en direct lorsque vos données sont bloquées dans des systèmes obsolètes sur site.
Pour les dirigeants, voici ce qu’il faut retenir : pour progresser dans le domaine de l’IA, il ne suffit pas d’avoir de bonnes idées. Il s’agit de votre capacité à connecter des plateformes, à mettre à niveau le stockage et les pipelines, et à contrôler les flux de données dans des environnements multicloud. Les partenariats actuels n’ont rien à voir avec le capitalisme des fournisseurs. Il s’agit de fonctionnalités directes et quantifiables, que vos équipes techniques peuvent utiliser et transformer en valeur réelle. Si votre infrastructure est encore fermée ou construite pour une autre époque, il est temps de la réaligner. Vous avez besoin de systèmes fluides, d’intégrations solides et de fournisseurs stratégiques qui n’essaient pas de vendre des logiciels, mais de résoudre les goulets d’étranglement.
L’adoption accélérée des plateformes d’analyse dans le cloud favorise l’extraction de la valeur des données.
Les données ne sont utiles que si elles circulent rapidement, en toute sécurité et à grande échelle. C’est pourquoi nous constatons une adoption rapide des plateformes analytiques natives du cloud. Les entreprises veulent une visibilité en temps réel, des systèmes connectés et des informations fournies par le biais d’interfaces réellement utilisées. Le backend doit disparaître et la compréhension doit devenir immédiate. C’est ce que ces plateformes commencent à offrir.
Microsoft ne ménage pas ses efforts dans ce domaine. La consommation de Microsoft Fabric, sa plateforme analytique cloud de bout en bout, a bondi de 80 % au cours des trois premiers mois de 2025. Il ne s’agit pas d’un intérêt de surface, mais d’une intégration profonde dans les processus d’entreprise de tous les secteurs. Le PDG de Microsoft, Satya Nadella, a également confirmé que OneLake, leur lac de données multicloud, a été multiplié par six d’une année sur l’autre. Ce niveau d’échelle suggère que les entreprises ne se contentent pas de stocker des données dans le cloud, mais qu’elles les utilisent.
Pourquoi est-ce important pour les dirigeants ? Parce qu’il montre où les choses évoluent, en s’éloignant des systèmes fragmentés vers des services consolidés qui combinent le stockage, l’analyse et les pipelines d’IA dans un seul environnement. La croissance de la plateforme à cette échelle se produit lorsque les points de douleur sont résolus, et non pas à cause du marketing.
Les entreprises veulent des boucles d’information plus rapides. Elles veulent des modèles qui apprennent à partir de données actuelles, et non d’instantanés périmés. Les plateformes d’analyse en nuage résolvent une partie du problème en réduisant le temps nécessaire à l’analyse et en améliorant l’accès des équipes fonctionnelles. Microsoft Fabric est loin d’être le seul outil à faire cela, mais des chiffres comme ceux-ci indiquent qu’il a un large écho.
C’est un signal important pour les décideurs de niveau C : l’investissement dans les logiciels d’entreprise doit prendre en compte le temps de retour sur investissement. Il ne s’agit pas seulement de ce que la plateforme prétend faire, mais de la manière dont les équipes opérationnelles extraient et appliquent réellement les informations. La forte croissance d’une plateforme comme Fabric signifie que les équipes éliminent les goulets d’étranglement, automatisent la préparation des données et s’orientent vers des flux de travail décisionnels intégrés.
Si vos équipes continuent d’exporter des tableaux de bord une fois par semaine ou de s’appuyer sur des outils cloisonnés, vous n’arrivez pas à suivre vos concurrents qui ont déjà activé cette nouvelle couche d’intelligence. Il ne s’agit plus de battage médiatique, l’infrastructure est déjà en place.
Mesurer l’engagement des données pour garantir le retour sur les investissements en matière de cloud analytics.
Les entreprises sont de plus en plus pressées de s’assurer que les données ne sont pas seulement stockées, mais aussi utilisées. Les coûts du cloud continuent de grimper et les conseils d’administration ne s’intéressent plus à la quantité de données stockées, mais à la valeur que vous créez à partir de ces données. Ils s’intéressent à la valeur que vous créez à partir de ces données. Et pour cela, il faut mesurer l’engagement réel des données, et pas seulement les performances de l’infrastructure.
Domo, par exemple, suit une mesure appelée « cartes vues ». C’est simple : chaque fois qu’un utilisateur visualise une visualisation, sur ordinateur, sur mobile, intégrée ou via des rapports programmés, cette visualisation est comptabilisée. Cela vous indique si les données sont consultées, interprétées et transformées en informations. Si personne n’utilise les données, elles sont statiques. Et les données statiques ne font pas avancer votre entreprise.
Il ne s’agit pas seulement de tableaux de bord ou de résultats BI de surface. Il s’agit de prouver le retour sur investissement des plateformes d’analyse en nuage. Si les équipes n’utilisent pas activement les données pour prendre des décisions ou automatiser des processus, les outils eux-mêmes sont inutiles, quelle que soit l’échelle ou le fournisseur.
Pour les dirigeants, il est essentiel de promouvoir des systèmes de mesure qui reflètent l’engagement et l’impact, et pas seulement le temps de fonctionnement ou le volume de stockage. L’utilisation des données n’a pas besoin d’indicateurs de performance complexes. Elle a besoin de signaux simples qui montrent clairement les taux d’utilisation et les voies de génération de connaissances. Les ensembles de données critiques sont-ils entre de bonnes mains ? Les décideurs travaillent-ils à partir d’informations actualisées et fiables ? Les indicateurs clés de performance sont-ils mis à jour automatiquement par les systèmes, et non manuellement ?
Selon Schein de Domo, les données qui ne sont pas consultées ou utilisées pourraient tout aussi bien ne pas exister. Il le dit clairement : charger des données dans le cloud sans engagement significatif ne compte pas. Cet engagement, qui se traduit par des indicateurs tels que les « cartes vues », fait la différence entre un investissement technologique et un résultat commercial.
Si vous êtes dans la suite C, vous devriez vous poser les questions suivantes : quel pourcentage de nos données cloud est activement utilisé dans la prise de décision ? Quel est le taux d’engagement de nos outils d’analyse dans les différents services ? Vous n’avez pas besoin d’une adoption à 100 %, vous avez besoin d’une utilisation ciblée. Et cela commence par le suivi de l’interaction réelle.
Principaux enseignements pour les dirigeants
- Une infrastructure inadéquate limite le succès de l’IA : La plupart des initiatives d’IA stagnent parce que les systèmes existants et les données en silo empêchent l’évolutivité et la performance dont l’IA générative a besoin. Les dirigeants devraient investir dans des pipelines de données unifiés et modernes afin d’éviter les dépenses inutiles en matière d’IA et les déploiements ratés.
- Les partenariats stratégiques remédient à la fragmentation des données : Des fournisseurs comme SAP et Oracle comblent les lacunes en matière d’intégration dans le cloud grâce à des partenariats audacieux et à des refontes de plateformes. Les dirigeants devraient s’aligner sur des fournisseurs prêts à intégrer l’écosystème et capables de rationaliser le mouvement des données dans des environnements multi-nuages.
- L’adoption de l’analytique dans le cloud s’accélère rapidement : Microsoft Fabric et d’autres plateformes natives du cloud connaissent une utilisation record, les entreprises étant à la recherche d’informations plus rapides et d’une intelligence plus connectée. Les dirigeants doivent évaluer si les outils d’analyse existants peuvent s’adapter aux besoins de l’entreprise en temps réel.
- L’engagement des données doit être mesuré : Les indicateurs d’utilisation tels que les « cartes vues » de Domo révèlent si les données sont réellement à l’origine des décisions ou si elles restent inactives. Les dirigeants doivent suivre l’engagement des données pour s’assurer que les investissements dans le cloud produisent des résultats commerciaux tangibles.