Les bases de données traditionnelles doivent évoluer vers des plateformes natives de l’IA.

Il fut un temps où votre base de données devait simplement se contenter d’enregistrer ce qui se passait et de laisser les humains se charger du reste. C’était logique, à une époque marquée par l’action humaine. Mais cette époque est révolue. Les systèmes autonomes commencent à prendre davantage de décisions, plus rapidement que les humains ne peuvent le faire. Ces systèmes n’attendent pas d’instructions. Ils perçoivent, raisonnent et agissent. La base de données passive ne tient donc plus la route.

Si les machines doivent fonctionner avec rapidité et intelligence, les dirigeants doivent repenser leur base de données. Une base de données native pour l’IA n’est pas seulement un gardien d’archives. Elle devient un moteur de raisonnement. Elle enregistre les transactions, mais explique aussi pourquoi elles se sont produites. C’est ce qui permet d’instaurer une véritable confiance, en particulier lorsque la logique est intégrée dans des processus autonomes qui ne sont pas directement touchés par la surveillance humaine.

Si vous voulez que vos systèmes pensent, agissent et rendent des comptes, la plateforme doit les prendre en charge. Et la seule façon d’y parvenir est que la base de données devienne active, guidant, vérifiant et expliquant chaque action effectuée par des agents autonomes. Ce n’est pas abstrait. C’est architectural. C’est opérationnel. Et c’est stratégique.

Pour les dirigeants, cela signifie que la réglementation, l’audit et le contrôle interne ne doivent pas ralentir l’innovation. Ils ont simplement besoin de la bonne source de vérité, une source capable de raisonner et pas seulement d’enregistrer. Si vous essayez de mettre à l’échelle des systèmes qui prennent des décisions autonomes dans des opérations mondiales, vous allez devoir prouver pourquoi chaque action s’est produite, et ce de manière automatique. Ce n’est pas seulement intelligent. C’est fondamental.

La perception est fondamentale pour les agents intelligents

Les agents autonomes ne fonctionnent pas s’ils ne peuvent pas comprendre clairement le monde. Cela commence par des données. Pas seulement plus de données, mais des données unifiées, actuelles et organisées en temps réel. Le problème de la plupart des architectures est qu’elles séparent les systèmes opérationnels des systèmes analytiques. L’un vous dit ce qui s’est passé la semaine dernière. L’autre vous dit ce qui se passe en ce moment. Les agents autonomes ont besoin des deux, instantanément.

L’unification des bases de données transactionnelles et analytiques dans un système hybride, connu sous le nom de HTAP, résout en partie ce problème. Google a concrétisé cette idée en intégrant Spanner, AlloyDB et BigQuery dans un système où les requêtes analytiques peuvent être exécutées sur des données en direct sans incidence sur les performances. Il s’agit là d’une avancée majeure. Ils ont maintenant ajouté le traitement vectoriel, appelé HTAP+V. Cela permet aux systèmes non seulement de traiter les transactions et les analyses ensemble, mais aussi d’en saisir le sens. C’est essentiel lorsque les clients utilisent le langage naturel, car « où sont mes affaires ? » et « ma livraison est-elle en retard ? » doivent être interprétés comme une seule et même demande.

Il s’agit de l’état de préparation opérationnelle. Il s’agit de ne pas construire des demi-systèmes qui s’engorgeront plus tard. Si votre plateforme ne peut pas gérer les données en temps réel et la sémantique en même temps, vous freinez la valeur de votre entreprise. Les systèmes autonomes n’attendent pas le traitement nocturne. Ils réagissent immédiatement. Les dirigeants doivent donner la priorité à une architecture de données unifiée, sous peine de déployer des agents qui agissent sans avoir une visibilité totale de l’environnement, ce qui conduit à de mauvaises décisions et à une perte de confiance.

La gestion des données multimodales et non structurées est essentielle pour la perception de l’ensemble du spectre.

La plupart des connaissances de votre entreprise ne se trouvent pas dans des feuilles de calcul. Elle se trouve dans des contrats, des courriels, des fichiers de conception, des transcriptions d’assistance, des photos de produits et d’autres formats non structurés. Les systèmes autonomes ne peuvent pas fonctionner à leur plein potentiel s’ils ignorent ces données. Les données structurées ne représentent pas à elles seules l’entreprise. Les machines ont besoin d’une vue d’ensemble, ce qui implique de comprendre tous les types de formats de données, de ne pas se contenter de les lire, mais de raisonner avec elles.

Nous avons déjà vu ce qu’il est possible de faire dans le haut de gamme. AlphaFold 3 de DeepMind utilise des données multimodales, texte, images, propriétés chimiques, pour modéliser avec précision des interactions moléculaires complexes. Le même principe s’applique aux entreprises. Si vos agents peuvent traiter et raisonner avec différents types de données directement, sans prétraitement ou ingénierie de données intensive, vous débloquez plus de valeur dans tous les départements. En interne, Google a intégré ce principe dans BigQuery, ce qui permet d’interroger des données non structurées de manière native, parallèlement à des ensembles de données structurées. Cela signifie que vos systèmes voient et traitent tout ensemble, en temps réel.

Il ne s’agit plus seulement d’un défi technique. Il s’agit d’une décision exécutive. Plus vos systèmes sont capables de comprendre et d’agir sur toutes les sources de données, y compris les images, le son, le texte et les tableaux structurés, plus leurs résultats seront précis et fiables. L’architecture existe. La capacité est prouvée.

Lorsque vous évaluez une infrastructure d’IA, assurez-vous que votre stratégie respecte la réalité multimodale des données. Les systèmes qui traitent les données non structurées comme des sources de second ordre manqueront des signaux critiques. Il ne s’agit pas de stockage de données. Il s’agit de calculer des données natives dans tous les formats. Les dirigeants qui accordent la priorité à l’intégration multimodale des données dépasseront ceux qui optimisent encore leurs requêtes SQL. Les données structurées resteront importantes, mais elles ne représentent qu’une partie d’un contexte opérationnel beaucoup plus large.

La gouvernance doit être automatisée et contextuelle dans les environnements de données natives de l’IA.

Vous ne pouvez pas prendre des décisions à la vitesse de la machine avec des flux de travail à la vitesse de l’homme. Nous avons dépassé le stade où les processus d’examen manuel ou les audits trimestriels suffisent. Les agents autonomes ne ralentissent pas, et votre gouvernance non plus. Ce qui évolue avec eux, c’est une couche de contrôle automatisée et consciente de l’IA, intégrée à la base de vos systèmes de données.

Le Dataplex de Google offre une solution claire. Il ne se contente pas de cartographier vos données. Il agit comme un plan de contrôle en temps réel. La classification de la sécurité, le cheminement des données et les politiques d’accès sont définis une seule fois et appliqués universellement, à travers tous les agents et toutes les charges de travail. L’avantage est double : rapidité et contrôle. Vous pouvez déployer des agents rapidement, tout en maintenant la conformité, la sécurité et la responsabilité à grande échelle.

Cela devient essentiel à mesure que la pression réglementaire s’accroît et que la surveillance des parties prenantes s’intensifie. Les agents qui agissent au nom de votre entreprise doivent suivre des règles exécutoires intégrées dans le système lui-même. Si votre gouvernance dépend de journaux que quelqu’un vérifie manuellement par la suite, il est déjà trop tard. Les dirigeants ont besoin de systèmes qui agissent de manière responsable en temps réel, et pas seulement après coup.

La gouvernance n’est pas une réflexion technique après coup. Il s’agit d’une exigence opérationnelle dès le premier jour. Pour les dirigeants, cela signifie que les plateformes de données doivent être préarchitecturées pour la conformité, et non modifiées sous la pression. Les entreprises qui cherchent à développer systématiquement l’IA ont besoin d’une gouvernance automatisée intégrée directement dans les opérations de données, afin que la conformité devienne ambiante et non intermittente. C’est la seule voie viable à mesure que les modèles et les agents assument des fonctions commerciales de plus en plus critiques.

La cognition des agents repose sur une mémoire et un raisonnement à plusieurs niveaux, intégrés dans la plate-forme de données.

La perception est la première étape. L’impact réel se produit lorsque les systèmes peuvent comprendre et raisonner en contexte. Cela nécessite une architecture cognitive, en particulier des composants de mémoire conçus pour différents types de tâches. Les systèmes autonomes résolvent des problèmes dans le temps. Ils ont besoin d’un contexte immédiat pour prendre des décisions rapides et d’une mémoire à long terme pour se souvenir de modèles, d’interactions passées ou d’informations historiques. Ces deux types de mémoire doivent être étroitement intégrés à la plateforme de données, et non pas construits comme des couches séparées.

L’architecture de Google rend cela possible. Spanner offre un accès cohérent et à faible latence, ce qui est essentiel pour la mémoire à court terme. Il est précis et globalement cohérent, et il est actuellement utilisé par des entreprises comme Character.ai pour gérer les flux de travail des agents. Pour la mémoire à long terme, BigQuery fournit un stockage évolutif avec une recherche vectorielle sans serveur pour récupérer des informations pertinentes à partir d’ensembles de données massifs. Cette architecture permet aux agents de stocker et de récupérer des décisions structurées, des nuances sémantiques et des données historiques en un seul flux. La vitesse à laquelle ils peuvent rechercher et citer des événements passés a un impact direct sur leur capacité à résoudre des problèmes complexes.

Grâce à ces outils, les entreprises bénéficient de systèmes qui ne se contentent pas d’extraire des données. Ces systèmes conservent les connaissances, les relient aux requêtes actuelles et adaptent leur raisonnement en conséquence. Il s’agit là d’un changement de capacité majeur, de la production de résultats à l’amélioration de la qualité des décisions.

Les dirigeants qui supervisent l’adoption de l’IA doivent savoir que la conception de la mémoire influe directement sur les performances des agents en production. Les systèmes dotés uniquement de capacités de récupération peuvent produire des résultats corrects, mais éprouver des difficultés à raisonner en plusieurs étapes ou à reconnaître des modèles. Les DSI et les directeurs techniques doivent donner la priorité aux plateformes qui séparent l’exécution des tâches à court terme des connaissances à long terme, faute de quoi les agents agiront sans contexte ou oublieront ce qu’ils ont appris. La cognition est moins une question de taille de modèle que de stabilité architecturale à travers les horizons temporels.

Les graphes de connaissances permettent un raisonnement relationnel plus approfondi que les capacités de recherche de base.

Il ne suffit pas d’extraire des faits. Dans un environnement commercial, la valeur provient de la connexion des connaissances, de la compréhension des relations entre les clients, les transactions, les fournisseurs, les conditions et les politiques. Ces relations ne peuvent pas être saisies uniquement par une recherche basée sur des mots-clés. C’est là que les graphes de connaissances deviennent essentiels. Ils organisent les données de l’entreprise en entités interconnectées, ce qui permet à des systèmes autonomes de les parcourir et de raisonner à travers elles.

GraphRAG, une évolution de RAG (génération augmentée par la recherche), combine une couche de recherche avec une structure graphique sous-jacente. Il permet aux agents de trouver des faits et de comprendre comment ces faits sont liés. La différence est stratégique. Avec GraphRAG, les agents peuvent résoudre des problèmes plus complexes en sachant quels points de données sont liés et pourquoi. Les recherches récentes de DeepMind sur le raisonnement implicite-explicite (I2E) montrent que l’ajout d’un contexte graphique améliore considérablement la capacité d’un agent à résoudre des requêtes difficiles de plusieurs ordres de complexité.

Alors que la banalisation pousse la recherche vectorielle vers l’ubiquité, la valeur réelle viendra de la profondeur et de la couverture du graphe de connaissances interne d’une entreprise. Il ne s’agit pas d’accéder aux données publiques. Il s’agit de structurer vos informations propriétaires pour raisonner à grande échelle, avec précision et cohérence.

Pour les équipes dirigeantes qui mettent en place des capacités d’IA d’entreprise, les graphes de connaissances ne sont plus optionnels. Ils sont des facteurs de différenciation. Les systèmes qui s’appuient sur des entrepôts vectoriels plats s’arrêtent à des informations superficielles. En revanche, les graphes de connaissances donnent à votre IA la capacité de relier les idées entre les départements, les ensembles de données et le temps. Il ne s’agit pas seulement d’une stratégie de données, elle définit la façon dont vos systèmes autonomes penseront, apprendront et se différencieront.

La confiance et l’explicabilité sont essentielles pour la mise à l’échelle des agents autonomes en production

Les agents autonomes ne peuvent s’adapter aux environnements professionnels réels que si leurs actions sont explicables. Si vous ne pouvez pas justifier comment ou pourquoi un système a pris une décision, on ne peut pas lui faire confiance, en particulier dans des domaines comme la finance, la santé ou la logistique où le risque de résultats non contrôlés est élevé. La confiance à grande échelle nécessite un raisonnement machine transparent et vérifiable directement au niveau de la couche de données. Pas dans un rapport externe. Pas plusieurs jours après les faits.

Google a résolu ce problème en intégrant l’inférence de l’apprentissage automatique directement dans ses bases de données. Avec des plateformes telles que BigQuery ML et AlloyDB AI, l’inférence se fait de manière native, en utilisant un simple appel SQL. Cela signifie que la logique qui sous-tend le modèle est transparente et traçable, de l’entrée à la sortie, et que les résultats sont directement liés aux données brutes utilisées. Cela crée une responsabilité immédiate et fait de la base de données elle-même un élément de la couche décisionnelle de l’agent.

Au-delà de la transparence, les fonctions d’explicabilité progressent rapidement. DeepMind est à l’avant-garde des méthodes d’IA explicable (XAI), notamment la citation des données, qui permet aux utilisateurs de remonter directement à l’origine d’un résultat. La simulation d’agents est une autre capacité en cours d’intégration dans les systèmes de production. Avant qu’un agent autonome ne soit déployé dans le monde réel, il est testé dans des environnements virtuels sûrs et reproductibles, comme le cadre d’agent SIMA de DeepMind. Ces pratiques réduisent les risques et renforcent la confiance opérationnelle dès le début.

Les dirigeants doivent considérer l’explicabilité non pas comme une case à cocher de conformité, mais comme une infrastructure opérationnelle. La capacité de comprendre et de vérifier le comportement d’un système, instantanément, est une exigence pour les systèmes autonomes dans tout environnement critique. Sans cela, les déploiements s’enliseront lorsqu’ils seront contestés par les régulateurs, les conseils d’administration ou les parties prenantes. La possibilité d’expliquer directement les systèmes de données permet de combler le fossé de confiance et d’adopter l’IA en toute confiance dans les unités opérationnelles.

AgentOps est le nouveau cadre opérationnel pour le déploiement et la gestion de systèmes autonomes.

Les pipelines traditionnels de devops et de MLops n’ont pas été conçus pour des agents autonomes. Ces flux de travail s’appuient fortement sur l’itération et les points de contrôle décisionnels pilotés par l’homme. Ce modèle ne supportera pas le volume, la vitesse ou la variabilité du développement d’agents modernes. AgentOps résout ce problème en proposant une approche intégrée de la gestion de l’ensemble du cycle de vie des agents, du concept initial au déploiement et à l’apprentissage continu. L’automatisation n’est pas considérée comme un résultat, mais comme un processus opérationnel intégré de bout en bout.

La plateforme Vertex AI de Google permet déjà cette évolution. Son Agent Builder comprend tout, du kit de développement d’agents (ADK) basé sur Python à un moteur d’exécution sans serveur entièrement géré appelé Agent Engine. Cette chaîne d’outils élimine les transferts entre les équipes et réduit considérablement le temps entre les preuves de concept et la préparation à la production. Un exemple est celui de Gap Inc, qui a construit sa stratégie de modernisation du commerce électronique autour de Vertex AI, en réduisant la complexité et en accélérant le déploiement dans les fonctions de base.

Pour la plupart des entreprises, l’obstacle à l’échelle de l’IA n’est pas constitué par les données ou les modèles, mais par la lourdeur des flux de travail. AgentOps s’attaque au problème du dernier kilomètre en intégrant le développement, la formation, la gouvernance et le déploiement dans un rythme opérationnel unique. Il en résulte des cycles plus courts, une responsabilité plus claire et des systèmes plus autonomes en production.

Pour les dirigeants d’entreprise, il s’agit de combler le fossé entre l’innovation et l’exécution. La création d’agents intelligents n’est pas seulement un problème de science des données, c’est une stratégie opérationnelle. AgentOps garantit que vous ne vous contentez pas de créer des agents, mais que vous les déployez et les gérez avec la même rapidité et la même cohérence que vos systèmes les plus résistants. Cela permet de réduire la charge, la dette technologique et de soutenir les efforts d’automatisation à l’échelle de l’entreprise avec une gouvernance intégrée.

Le chemin vers une entreprise native de l’IA implique d’aligner l’architecture sur la perception, la cognition et l’action.

Transition vers une entreprise entreprise native en matière d’IA ne se limite pas à l’adoption de nouveaux modèles. Il s’agit d’une réinitialisation complète de l’architecture qui nécessite un alignement intentionnel sur trois fonctions essentielles : la perception, la cognition et l’action. Chacune s’appuie sur l’autre. La perception garantit que vos systèmes autonomes voient ce qui se passe, la cognition garantit qu’ils le comprennent et l’action garantit qu’ils peuvent réagir intelligemment et en toute sécurité dans des environnements de production réels.

En commençant par la perception, la base est une architecture convergente qui unifie les charges de travail transactionnelles et analytiques (HTAP) et intègre la recherche vectorielle (le « V » de HTAP+V). Les agents disposent ainsi de données actuelles et de la compréhension sémantique nécessaire pour les interpréter avec précision. Cette base doit être construite sans silos. AlloyDB, Spanner et BigQuery assurent cette unification à travers les systèmes actifs.

À partir de là, la cognition se développe grâce à une mémoire en couches, à court terme pour l’exécution rapide des tâches et à long terme pour les références approfondies, et alimentée par des structures graphiques de connaissances plutôt que par de simples listes de faits. C’est là que l’intelligence intervient. Les agents peuvent raisonner, et pas seulement se souvenir. L’architecture de Google et les recherches de DeepMind sur le raisonnement basé sur la connaissance confirment qu’il s’agit d’un avantage évolutif.

Enfin, l’action est régie par un cycle de vie AgentOps entièrement intégré. Des systèmes comme Vertex AI, en particulier l’environnement Vertex AI Agent Builder, permettent aux équipes de passer de l’idée à la production sans friction. Cela résout le problème récurrent du décalage opérationnel entre la démonstration du fonctionnement des systèmes d’IA et leur mise en œuvre dans les environnements professionnels.

Les dirigeants doivent considérer cette transformation comme un changement architectural en plusieurs phases, et non comme une mise à niveau des outils. Chaque couche doit être alignée sur le même objectif : soutenir des systèmes intelligents et autonomes qui peuvent voir, penser et agir avec responsabilité et fiabilité. Si vous ne parvenez pas à unifier ces couches, le système s’effondre à grande échelle. Si l’alignement est parfait, vous obtiendrez des performances durables et différenciées entre les départements, les expériences des clients et les marchés.

En conclusion

Il ne s’agit pas d’une tendance. Il s’agit d’un changement fondamental. Les systèmes autonomes ne sont pas en train d’arriver, ils sont déjà en train de remodeler la façon dont la valeur est créée, les décisions sont prises et les entreprises fonctionnent. La question n’est pas de savoir si votre organisation s’adaptera. Il s’agit de savoir à quelle vitesse et avec quelle efficacité.

Pour y parvenir, il faut aller au-delà des mises à niveau incrémentielles. Il faut un véritable alignement architectural, des systèmes conçus pour la perception, pour le raisonnement et pour l’action. C’est ainsi que les agents autonomes évoluent sans perdre le contrôle, que la confiance reste intacte et que la vitesse devient un avantage concurrentiel et non un handicap.

Pour les décideurs, il ne s’agit pas de parier sur l’IA. Il s’agit de posséder l’infrastructure qui permet de prendre des décisions en matière d’IA. Si votre plateforme de données ne peut pas voir, penser et s’expliquer elle-même, vous ne faites pas que rattraper le temps perdu, vous volez à l’aveuglette. Mais si vous posez les bonnes bases, vous n’obtiendrez pas seulement l’automatisation, mais aussi l’accélération. Il s’agit d’une accélération.

Alexander Procter

décembre 10, 2025

19 Min