Les agents d’IA d’entreprise peinent à réagir en temps réel en raison d’une infrastructure de données obsolète

À l’heure actuelle, les agents d’IA d’entreprise volent à l’aveuglette plus souvent que vous ne le pensez. On leur demande de réagir à des événements commerciaux, à des déclencheurs de vente, à des schémas de fraude, à des problèmes de support client, mais les données sur lesquelles ils s’appuient datent souvent de quelques heures, voire de quelques jours. Ce n’est pas seulement inefficace. C’est dangereux.

La racine du problème est l’infrastructure existante. La plupart des entreprises utilisent encore des pipelines ETL(extraction, transformation, chargement), qui ont été conçus pour le traitement par lots. Ces systèmes sont programmés pour rafraîchir les données à intervalles fixes, par exemple toutes les heures ou tous les jours. Le problème ? La réalité n’attend pas. Un défaut de paiement, une alerte système critique ou un comportement de désabonnement des clients ne coïncident pas avec une tâche programmée. Lorsque vos agents d’IA sont contraints de travailler avec les informations d’hier, ils ne peuvent pas prendre de décisions fiables aujourd’hui. Cela se traduit par des temps de réaction plus lents, des opportunités commerciales manquées et, dans certains cas, de graves pertes financières.

Il ne s’agit pas d’une limitation de l’IA elle-même. Il s’agit d’une limitation de la synchronisation, et la synchronisation est essentielle. Si vos systèmes retardent la prise de conscience d’événements importants, aucun agent ne peut réagir intelligemment, quelle que soit la puissance du modèle sous-jacent. Vous demandez de la précision sans fournir de contexte lorsque c’est important.

Pour les cas d’utilisation sérieux tels que la souscription en temps réel, la tarification dynamique, l’optimisation de la chaîne d’approvisionnement ou la prévention de la fraude, la latence causée par de vieux pipelines peut réduire la valeur du système. Lorsque chaque minute compte, les données périmées transforment l’IA d’un atout en un handicap.

Les systèmes de données en continu offrent une solution viable pour fournir un contexte en temps réel aux agents d’intelligence artificielle.

La réponse est un meilleur timing.

Les systèmes de streaming tels qu’Apache Kafka et Apache Flink représentent une évolution des modèles de données réactifs dépassés vers des modèles construits autour de l’immédiateté. Au lieu d’attendre l’exécution d’une tâche, les systèmes de streaming fonctionnent en continu. Tout ce qui se produit, qu’il s’agisse d’une interaction avec un client, d’une mise à jour du backend ou d’une entrée provenant d’un capteur, devient immédiatement un événement. Cet événement est poussé dans un flux et traité immédiatement.

La puissance de cette technologie réside dans le fait que les agents d’intelligence artificielle n’ont plus à se demander « Que s’est-il passé il y a une heure ? ». Ils peuvent savoir ce qui se passe en ce moment même. Ce type de connaissance multi-sources en temps réel est ce que Sean Falconer, responsable de l’IA chez Confluent, appelle le « contexte structurel », c’est-à-dire non seulement des informations, mais aussi des données actuelles reliées de manière significative entre les systèmes. Vous ne donnez pas seulement un document à l’agent, vous lui donnez une vue toujours fraîche de l’entreprise.

Un agent de recommandation d’emploi construit avec un contexte en continu peut consulter le profil d’un candidat, son comportement de navigation récent, son historique de recherche et les offres d’emploi actuelles, en temps réel. Cela permet de passer de suggestions génériques à des expériences significatives et personnalisées qui convertissent les candidats.

Pour les décideurs, il s’agit là d’un élément important. Si votre entreprise prend l’IA au sérieux, vous avez besoin d’un moyen de fournir un contexte en continu, et non de vous appuyer sur des données froides qui étaient peut-être exactes il y a dix heures. Les plateformes de streaming ne sont plus seulement des outils d’ingénierie, elles émergent en tant que fondations opérationnelles pour toute entreprise orientée vers l’IA et capable d’actions automatisées en temps réel. C’est ce qui transforme les systèmes d’IA d’outils qui résument le passé en systèmes qui comprennent et agissent sur le présent.

Confluent introduit un nouveau moteur de contexte en temps réel et des cadres d’agents de streaming pour améliorer l’efficacité des agents.

Confluent ne se contente pas d’ajouter des fonctionnalités, il s’attaque au problème central de la latence de l’IA dans les environnements d’entreprise. Confluent a lancé un moteur contextuel en temps réel basé sur Apache Kafka et Apache Flink, conçu pour fournir des ensembles de données fusionnées en direct aux agents d’IA. Il ne s’agit pas de simples flux bruts, mais de vues traitées en temps réel qui combinent les données historiques et actuelles dans un contexte unifié.

Voici comment cela fonctionne. Kafka extrait des données en temps réel dans des flux organisés. Flink traite ces flux à la volée, produisant ce que Confluent appelle des « ensembles de données dérivées ». Ceux-ci reflètent l’état le plus récent des activités de l’entreprise, comme le comportement du compte client, l’activité de la session, l’état du ticket d’assistance ou la position de l’inventaire. Ce contexte est ensuite transmis aux agents d’intelligence artificielle par l’intermédiaire du serveur MCP (Model Context Protocol) géré par Confluent.

Mais Confluent ne s’est pas arrêté là. Il a introduit deux cadres d’agents. Tout d’abord, Streaming Agents, un cadre propriétaire qui permet aux modèles d’IA de surveiller les flux de données et de se déclencher automatiquement sur des modèles prédéfinis. Ces agents ne s’appuient pas sur des invites. Ils réagissent aux conditions avant que quelqu’un ne le demande. Intégré au Claude d’Anthropic, il offre une observabilité prête à l’emploi, une planification native et des définitions d’agents simplifiées. Il est conçu pour fonctionner de manière native sur le flux. C’est important.

Deuxièmement, ils ont publié Flink Agents en tant qu’option open-source en collaboration avec Alibaba Cloud, LinkedIn et Ververica. Cela donne aux équipes d’ingénieurs l’autonomie de construire des agents pilotés par les événements directement sur Apache Flink, sans avoir besoin d’utiliser le cloud de Confluent. Ce type de flexibilité permet d’éviter le verrouillage des fournisseurs et de soutenir les déploiements à grande échelle.

Pour les dirigeants qui explorent les capacités de la prochaine génération, le message est clair : à moins que vos agents d’IA ne soient connectés à des flux de données opérationnelles en direct, vous freinez l’automatisation qui est déjà possible aujourd’hui.

Les mises en œuvre actuelles du protocole de contexte de modèle (MCP) aboutissent souvent à des données périmées ou fragmentées pour les agents d’intelligence artificielle.

Même si le MCP est devenu une couche standard permettant aux agents d’IA d’accéder aux données de l’entreprise, son potentiel n’a pas encore été pleinement exploité. Trop d’implémentations connectent les agents à des lacs ou des entrepôts centralisés qui sont alimentés par un ETL par lots. Résultat ? Les agents consomment des informations obsolètes qui ne reflètent pas les conditions actuelles de l’entreprise.

Ce scénario s’effondre pour deux raisons majeures. Premièrement, les données sont périmées. Si un risque de désabonnement est apparu il y a deux heures mais que votre agent ne le voit que maintenant, votre intervention est tardive. Deuxièmement, les données sont fragmentées. Les systèmes opérationnels ne parlent pas nativement le même langage, et l’agent finit par faire inférence sur inférence juste pour comprendre ce qui se passe. Cela entraîne des coûts de calcul inutiles et des conclusions inexactes.

Certaines entreprises ont essayé de connecter MCP directement aux API ou aux bases de données opérationnelles pour un accès en temps réel. C’est une bonne chose en théorie, mais ces points d’accès n’ont pas été conçus pour une inférence intelligente en temps réel. Les agents sont bombardés de données brutes désorganisées, repoussant les limites des jetons de modèle et obligeant à des passages multiples juste pour synthétiser un point de vue. L’expérience devient rapidement chaotique et la précision en pâtit.

Le moteur de contexte en temps réel de Confluent permet de rationaliser l’ensemble du processus. Il gère l’ingestion, le prétraitement et le service en aval en un seul flux de données continu. Plus important encore, il transforme le signal brut en un contexte propre, fiable et en continu en temps réel. Cela modifie considérablement la qualité des décisions de l’IA, les rendant immédiates, pertinentes et fiables.

Tout dépend de la manière dont les entreprises alimentent leurs modèles. Soit vous leur fournissez des données structurées et fraîches de manière intelligente, soit vous leur demandez de travailler avec des signaux fragmentés datant d’hier. Il s’agit de choisir entre une prise de décision proactive et une prise de décision tardive.

Les plateformes concurrentes reconnaissent également l’évolution vers une architecture de données en temps réel et optimisée pour les agents

Il est clair aujourd’hui que l’infrastructure en temps réel devient la base des applications d’IA. Confluent n’est pas le seul à opérer ce changement. D’autres acteurs clés restructurent la façon dont les données se déplacent, agissent et servent les agents d’IA, chacun avec sa propre approche.

Redpanda a récemment dévoilé son plan de données agentique. L’architecture combine des données stockées et des données en continu à l’aide d’un moteur SQL distribué acquis auprès d’Oxla. Elle est conçue pour les agents d’intelligence artificielle qui ont besoin d’un accès rapide aux données, qu’elles soient en transit ou au repos. Redpanda a également intégré des fonctions d’observabilité et de contrôle d’accès adaptatif, en utilisant des jetons à courte durée de vie et à portée limitée. Cela permet de sécuriser et de tracer le comportement des agents dans les flux de travail sensibles.

Entre-temps, Databricks et Snowflake, connus depuis longtemps pour leurs activités d’analyse, sont en train de moderniser leurs plates-formes en les dotant de capacités de diffusion en continu. Mais ils sont partis d’un paradigme de traitement par lots. Cela signifie que les données ne sont pas intrinsèquement en temps réel ; elles sont rendues en temps réel par amélioration, et non par conception. Ces plateformes sont performantes pour l’analyse en profondeur, mais ne sont pas encore optimisées pour les besoins des agents d’IA opérationnels.

En revanche, l’architecture de Confluent considère le streaming comme un élément fondamental. Kafka et Flink n’attendent pas les données, ils les traitent et les transforment dès qu’elles arrivent. La couche d’intelligence artificielle est construite sur les flux, et non sur les instantanés de l’entrepôt. Il s’agit là d’une distinction essentielle pour les dirigeants d’entreprise qui évaluent les solutions.

Si vos agents doivent déclencher des actions en fonction d’événements qui se produisent maintenant, l’infrastructure sous-jacente doit être conçue pour assurer la rapidité et la continuité. Il ne s’agit pas de fonctionnalités pour plus tard, elles définissent ce qui est possible aujourd’hui.

Il s’agit d’un point d’inflexion stratégique. Les décisions prises aujourd’hui en matière d’infrastructure déterminent la rapidité avec laquelle les agents d’IA peuvent passer du statut d’outils de back-office à celui d’opérateurs de première ligne. Les dirigeants doivent regarder au-delà des fonctionnalités et évaluer le comportement par défaut de l’architecture, la façon dont elle gère les données, la latence et l’échelle de déploiement dès le départ.

La diffusion en temps réel permet une intégration significative de l’IA dans les environnements professionnels en temps réel.

Le concept est déjà en production. Busie, une entreprise de technologie du transport axée sur la gestion des bus charters, utilise le flux de données en temps réel de Confluent pour unifier les devis, les attributions de trajets, les paiements et les informations sur les chauffeurs dans une plateforme unique et réactive. Chaque action de l’utilisateur devient un événement en continu, capturé et distribué instantanément, sans attendre les mises à jour par lots.

Il ne s’agit pas d’un avantage théorique. Il modifie la dynamique opérationnelle. Avec le streaming en temps réel, Busie contrôle la latence de son système. Ils ne devinent pas à quel point leurs données sont récentes, ils le savent. Cette capacité permet un déploiement plus rapide des fonctionnalités, un meilleur alignement des données entre les services et, surtout, permet à l’IA de réagir en fonction de ce qui se passe réellement, et non de ce qui s’est déjà passé.

Louis Bookoff, cofondateur et PDG de Busie, a souligné que cette base est ce qui rendra l’IA générative pratique pour leur entreprise. Lorsque chaque événement, comme l’envoi d’un devis ou l’affectation d’un conducteur, est traité en temps réel, les agents d’IA disposent des données nécessaires pour fonctionner avec rapidité et fiabilité.

Cela est particulièrement important lorsque le système voit des milliers d’actions de clients par minute. Sans une architecture capable de filtrer, de valider et de contextualiser ces signaux, l’IA se laisse submerger ou émet des hypothèses dangereuses. Le traitement des flux est ce qui permet au modèle de s’ancrer dans la réalité et de maintenir la précision et la pertinence des décisions.

Les dirigeants ne doivent pas sous-estimer le défi que représente la transformation en temps réel. Il ne s’agit pas seulement de fournir des données plus rapidement. Il s’agit de repenser les flux de travail pour que l’IA devienne opérationnelle, et pas seulement analytique. Ceux qui y parviendront pourront libérer le rôle de l’IA dans l’amélioration des activités de base, et pas seulement des fonctions périphériques.

Le contexte du streaming représente une évolution fondamentale dans la stratégie d’IA de l’entreprise, de la réaction à l’anticipation.

L’évolution vers le contexte en continu n’est pas incrémentielle, elle redéfinit la manière dont l’IA participe aux activités de l’entreprise. Il ne s’agit plus de modèles répondant à des questions. Nous parlons de systèmes qui comprennent ce qui se passe maintenant, avec suffisamment de précision pour agir avant que quelqu’un ne lance une commande. C’est la différence entre l’utilisation de l’IA pour réagir et la construction de systèmes d’IA qui anticipent ce qui doit se passer ensuite.

Les environnements d’entreprise sont complexes. Les événements se déplacent rapidement et d’un système à l’autre, le comportement des clients, les transactions, les signaux de la chaîne d’approvisionnement, les alertes de sécurité. Lorsque les agents d’intelligence artificielle n’ont accès qu’à des données statiques mises à jour toutes les heures ou tous les jours, ils prennent du retard. Le contexte de diffusion en continu inverse cette limitation. Il fournit au modèle des données en temps réel, provenant de différents systèmes. Désormais, l’IA ne se contente pas de connaître le dernier état connu, elle suit l’état réel de l’entreprise.

Cela modifie ce que l’IA peut réellement faire. La détection des fraudes, la résolution des anomalies et les flux de travail de l’assistance à la clientèle sont trois domaines où le temps compte. Si votre IA détecte le problème alors qu’elle a déjà terminé, vous avez manqué le moment de le résoudre ou de le prévenir. Avec une alimentation continue en données, le modèle dispose des informations dont il a besoin pour lancer des interventions, recommander des changements, déclencher des workflows et faire remonter les problèmes, le tout en mouvement, et non rétrospectivement.

Sean Falconer, responsable de l’IA chez Confluent, a souligné qu’en travaillant avec des modèles probabilistes, la précision dépend fortement des données et de la synchronisation. Plus votre contexte est précis et actuel, plus vous pouvez orienter le modèle de manière fiable vers les résultats escomptés. Il a raison. Les déchets entrent, les déchets sortent. Mais si vous introduisez des données précises au fur et à mesure, les résultats seront plus forts, plus rapides et plus pertinents.

Pour les dirigeants, la question de l’infrastructure n’est plus seulement une question de stockage, de vitesse ou de coût. Il s’agit d’avantages stratégiques. La capacité à guider les systèmes d’IA en temps réel marque la frontière entre l’automatisation qui vous attend et l’automatisation qui renforce votre entreprise en mouvement.

Récapitulation

Si vous envisagez sérieusement l’IA, vous ne pouvez pas vous permettre de lui fournir des données périmées. La plupart des systèmes d’entreprise sont encore enfermés dans des modèles de traitement par lots qui ont été conçus pour une autre époque, une époque qui ne correspond pas au rythme des entreprises modernes. Les agents d’IA n’ont pas seulement besoin de données. Ils ont besoin de contexte, et ce en temps réel.

Ce qui devient clair, c’est que l’infrastructure est désormais une stratégie. Le streaming en temps réel n’est pas une technologie « agréable à avoir ». C’est le fondement de toute entreprise qui attend de l’IA qu’elle agisse de manière autonome, fiable et précise à grande échelle. Sans contexte de diffusion en continu, vos agents ne sont que des systèmes intelligents qui attendent des instructions. Avec le contexte en continu, ils deviennent des participants actifs dans la façon dont votre entreprise réagit, s’adapte et se développe.

Les entreprises qui prennent de l’avance ne se contentent pas d’ajouter l’IA à leurs systèmes existants. Elles repensent de fond en comble la manière dont les données circulent dans leur organisation. Elles conçoivent des systèmes qui ne souffrent d’aucun retard. Des systèmes conçus pour observer, traiter et agir en continu.

Si votre entreprise fonctionne encore avec des pipelines de traitement par lots et des instantanés d’entrepôt, vous êtes en concurrence avec un pied hors du sol. L’avenir est au streaming. La question est de savoir si votre stratégie de données peut suivre ce que votre IA est prête à faire.

Alexander Procter

novembre 12, 2025

16 Min