Les modèles opérationnels informatiques traditionnels sont mal adaptés à la nature éphémère de l’IA agentique.

La plupart des systèmes informatiques traditionnels n’ont pas été conçus pour faire face à l’avenir. Ils ont été conçus pour la persistance, pour que les choses continuent à fonctionner indéfiniment. C’est la règle du jeu depuis des décennies. Des systèmes comme Kubernetes, bien que puissants, sont excellents pour gérer des charges de travail de longue durée. Mais ils n’ont jamais été conçus pour faire fonctionner des flottes de logiciels qui n’existent que pendant quelques secondes.

L’IA agentique change le paradigme. Ces agents sont temporaires. Ils sont lancés à la demande, peut-être pour répondre à une requête d’un client ou à une tâche dans le cadre d’un flux de travail. Puis ils disparaissent. Aucune trace n’est laissée dans votre tableau de bord. Aucun processus n’attend qu’un administrateur s’en occupe.

Il s’agit de chorégraphier des actions qui n’existent que pour être exécutées et disparaître. Cela bouleverse l’ensemble du modèle opérationnel. Si votre infrastructure part du principe que les logiciels doivent rester actifs, elle ne fonctionnera tout simplement pas dans ce contexte. Vous gaspillerez des ressources ou, pire, vous manquerez des opportunités de vitesse, d’échelle et de valeur.

Soyons clairs : pour les dirigeants responsables de la mise en place d’une stratégie technologique axée sur la croissance à long terme, essayer d’adapter les outils d’hier à l’architecture IA de demain ne vous permettra pas d’aller de l’avant. Vous devrez investir dans des ensembles d’outils opérationnels qui acceptent la disparition comme condition par défaut.

Les opérations informatiques doivent dissocier la capacité de la consommation pour soutenir efficacement les architectures agentiques.

Le véritable changement d’architecture dans les systèmes agentiques se résume à la séparation. Dans l’informatique d’entreprise traditionnelle, les équipes construisent l’infrastructure statique, l’informatique, le stockage, les réseaux, et d’autres l’utilisent en écrivant et en exécutant des applications. Cette structure verrouillée est aujourd’hui trop rigide.

À l’ère de l’IA agentique, vous avez des composants logiciels ultra-rapides et éphémères qui consomment des ressources à chaque instant. Ils ne se soucient pas de savoir où se trouve l’ordinateur ou qui a construit le réseau. Tout ce qui compte pour eux, c’est qu’au moment où ils ont besoin de mémoire vive, de stockage ou d’accès aux données, ces ressources sont là, instantanément, avec les bonnes autorisations.

Cela signifie que vous devez découpler totalement la « capacité », qui est votre infrastructure sous-jacente, de la « consommation », qui est la couche qui effectue réellement l’inférence ou la tâche. L’interaction entre ces deux couches doit être abstraite. Pas de liaisons personnalisées. Pas de liens fixes. Lorsqu’un agent démarre, ne serait-ce que pour cinq secondes, il doit accéder exactement à ce dont il a besoin, puis sortir proprement.

D’un point de vue stratégique, ce changement d’orientation vous donne de la flexibilité. Il facilite l’introduction de nouveaux modèles. Vous améliorez les délais de mise sur le marché. Vous développez l’expérimentation. Et vous n’avez pas à démanteler votre infrastructure tous les trimestres pour suivre le rythme.

Si votre DSI ne pense pas à construire des systèmes sur ce modèle découplé, vous ajoutez un risque futur. De nouveaux agents apparaissent chaque mois dans tous les secteurs d’activité. Sans cette architecture en place, chacun d’entre eux devient une charge manuelle au lieu d’une valeur autonome.

De nouvelles couches d’interface sont essentielles pour abstraire l’inférence éphémère des systèmes sous-jacents.

Ce qu’il faut maintenant, c’est une structure. À mesure que l’IA agentique s’intègre dans les opérations commerciales, les outils de gestion de son comportement doivent eux aussi évoluer. Il ne s’agit pas seulement de construire des agents plus puissants, mais aussi de gérer leur exécution avec contrôle, efficacité et une implication humaine minimale.

Les systèmes traditionnels ne sont pas conçus pour s’interfacer avec des logiciels qui se lancent, s’exécutent et s’arrêtent en l’espace d’un clin d’œil. Pour que les agents éphémères soient utiles à grande échelle, vous avez besoin d’une couche d’abstraction fiable : une couche qui isole le fonctionnement de l’agent des détails de l’infrastructure sous-jacente. Ce n’est pas facultatif, c’est le seul moyen d’éviter la dérive, la fragilité et les objectifs de performance manqués.

Ces couches d’interface doivent fournir un accès en temps réel au calcul, aux données et aux réseaux sans qu’il soit nécessaire de configurer chaque interface manuellement. Cela crée un tampon qui permet à l’infrastructure de rester stable et réutilisable, même si les agents vont et viennent dans différents flux de travail des milliers de fois par jour. Cela garantit également un comportement cohérent, quel que soit l’endroit ou la manière dont l’agent est déclenché.

D’un point de vue commercial, il s’agit d’une avancée significative. Elle permet aux équipes de passer de la gestion de processus fragiles à l’orchestration de résultats à haute fréquence. Ce changement permet d’augmenter le débit, d’accélérer l’itération et d’assurer une exécution solide comme le roc. Si vous voulez que votre pile d’IA soit à la fois réactive et sécurisée, cette conception d’interface est essentielle.

Les premiers cas d’utilisation démontrent à la fois les promesses et la complexité inhérentes aux environnements d’IA agentique.

Les innovateurs qui travaillent déjà avec ces systèmes nous envoient des signaux précurseurs. Reuven Cohen, de l’Agentics Foundation, a mis au point un cas d’essai pour l’incitation axée sur les résultats. Il a été conçu pour auto-orchestrer un réseau d’agents qui effectuent des tâches telles que la recherche, la conception, le codage et les contrôles de qualité. Il n’y a pas de flux de travail fixe. Les agents se sont auto-organisés en fonction du résultat qu’ils optimisaient.

Ce type de système présente un réel potentiel. Il réduit le besoin de flux de travail préétablis, accélère l’exécution des tâches et accélère la manière dont les systèmes réagissent aux nouveaux renseignements ou aux nouvelles données. Mais la réalité, c’est qu’il y a du désordre. Le processus a nécessité plusieurs itérations pour que le déploiement et l’accès aux données se fassent sans heurts. L’outillage n’était pas cohérent. Les résultats n’étaient pas garantis du premier coup.

C’est pourtant à cela que ressemble le progrès. La complexité apparaît à la limite de l’innovation. Ce sont des signes que l’IA agentique est fonctionnelle et, plus important encore, qu’elle s’améliore rapidement.

Les dirigeants doivent comprendre à la fois les avantages et les coûts d’une adoption précoce. Il faut une assistance technique, des déploiements limités et une amélioration continue. Mais si votre entreprise vise des systèmes opérationnels à haut rendement et à grande vitesse, un investissement précoce dans ces architectures vous donne une longueur d’avance. Ignorer ces architectures, c’est regarder les concurrents automatiser le travail de connaissance alors que vous êtes encore en train de vous adapter avec des flux de travail manuels.

Notez également qui est impliqué. Reuven Cohen n’en est pas à son coup d’essai en matière d’infrastructure d’IA. Le travail de son équipe à la Fondation Agentics vous donne une indication fiable que cet espace n’est pas seulement de la vapeur, mais qu’il est activement développé, testé et mis à l’échelle.

Les principaux obstacles opérationnels consistent à garantir un contexte partagé, un suivi rigoureux et le respect des normes de conformité.

Le passage à l’IA agentique introduit des lacunes que les systèmes traditionnels n’ont pas été conçus pour combler. L’un des principaux problèmes est le contexte : plusieurs agents travaillant sur un objectif commun doivent avoir accès aux mêmes données et à l’historique des tâches. S’ils ne peuvent pas voir ce que d’autres ont déjà fait, le système devient rapidement inefficace. Vous obtenez des doublons, des incohérences ou des erreurs.

La surveillance est un autre point faible. Les outils d’observabilité standard sont conçus pour des processus de longue durée qui laissent des traces au fil du temps. Les systèmes agentiques ne fonctionnent pas de cette manière. Leur durée d’exécution est trop courte pour que la télémétrie conventionnelle puisse capturer des données utiles. Pour les responsables informatiques, cela signifie que de nouveaux types de suivi du comportement en temps réel devront être développés spécifiquement pour cet environnement. L’observation passive ne suffira pas, vous aurez besoin d’une visibilité prédictive et proactive.

Il y a ensuite la gouvernance. Basées sur les juridictions sur l’IA s’étendent. Si vos agents extraient des données clients ou accèdent à des contenus sensibles, ils doivent opérer dans les limites légales et de conformité, région par région. Cela n’est pas possible si vos systèmes sont étroitement couplés. L’architecture doit être composable : suffisamment modulaire pour remplacer les agents, les sources de données ou les modèles d’IA sans interrompre le flux d’exécution principal.

Les chefs d’entreprise doivent traiter cette question comme un problème d’infrastructure stratégique. Si le contexte, le contrôle et la conformité ne sont pas pris en compte au niveau du système, les systèmes agentiques peuvent fonctionner, mais ils ne seront pas fiables, conformes ou à l’échelle dont vous avez besoin pour avoir un impact.

Le rôle des opérations informatiques passe du maintien d’un temps de fonctionnement continu à des actions d’agents axées sur les résultats.

Les opérations ne sont plus les mêmes. Historiquement, le succès signifiait que les logiciels étaient disponibles 24 heures sur 24 et 7 jours sur 7. Ce n’est plus la mission. Dans les environnements agentiques, il ne s’agit pas de maintenir les systèmes en état de marche, mais de veiller à ce que les agents apparaissent au bon moment, s’exécutent correctement et se dissolvent sans friction.

Les priorités des équipes opérationnelles s’en trouvent modifiées. La fiabilité dépend désormais de la précision et non de la persistance. La sécurité, la disponibilité et l’évolutivité doivent être assurées en temps quasi réel. L’infrastructure doit prendre en charge les déploiements en rafale et retirer les charges de travail en quelques secondes, tout en maintenant l’auditabilité et le contrôle d’accès.

Du point de vue du leadership, ce changement n’est pas mineur. Il redéfinit à la fois les compétences et les outils dont votre équipe informatique a besoin. Il affecte également la façon dont vous mesurez les performances. Le temps de fonctionnement n’est plus d’actualité. Ce qui compte, c’est une action réussie, à la demande, sans frais généraux.

Les systèmes que vous construisez aujourd’hui doivent être capables de gérer des agents qui se lancent d’eux-mêmes, exécutent des micro-tâches et disparaissent, tout en ne laissant aucune charge résiduelle sur l’infrastructure. Investir dans une infrastructure qui prend en charge l’autonomie, la prise de décision en temps réel et l’exécution informatique en fonction du contexte n’a pas pour but de rester à la page, c’est la base pour rester pertinent sur les marchés où l’automatisation domine.

Principaux enseignements pour les dirigeants

  • Les opérations traditionnelles ne peuvent pas gérer les agents d’IA éphémères : Les dirigeants doivent réévaluer les infrastructures conçues pour la persistance, car l’IA agentique fonctionne en rafales éphémères et à fort volume que les systèmes actuels ne peuvent pas suivre, gérer ou optimiser efficacement.
  • Il est désormais obligatoire de dissocier l’infrastructure de l’exécution : Afin d’éviter les frictions et de s’adapter efficacement, les dirigeants doivent promouvoir des architectures dans lesquelles le calcul et les données sont dissociés du comportement des agents, ce qui permet une exécution souple, rapide et sûre.
  • Les interfaces statiques ne supporteront pas le comportement dynamique de l’IA : Les organisations doivent investir dans des couches d’interface qui simplifient l’accès en temps réel aux ressources pour les agents sans les lier à des systèmes spécifiques, ce qui garantit la cohérence et la rapidité des opérations.
  • Les premiers déploiements révèlent à la fois un potentiel et des difficultés de croissance : Les équipes d’innovation qui pilotent des flux de travail agentiques montrent des capacités d’auto-organisation prometteuses, mais les dirigeants doivent anticiper l’instabilité de l’outil et prévoir des cycles de perfectionnement itératifs.
  • La conformité, le contexte et l’observabilité doivent être réinventés : Les décideurs doivent donner la priorité aux systèmes qui permettent le partage du contexte entre les agents, le suivi du comportement en temps réel et les cadres composables pour répondre à l’évolution des exigences réglementaires.
  • Les mesures et les priorités opérationnelles doivent évoluer : Le succès n’est plus défini par le temps de fonctionnement, les dirigeants doivent se concentrer sur l’agilité, la qualité des résultats et le déploiement précis d’agents d’IA qui apparaissent, agissent et se retirent sans perturber les systèmes.

Alexander Procter

décembre 11, 2025

11 Min