Prolifération des agents d’IA et défis en matière d’interopérabilité

Les agents d’IA se développent rapidement dans les organisations. Ils automatisent la prise de décision, l’engagement des clients et les processus informatiques qui reposaient auparavant sur des flux de travail manuels. Mais alors que de plus en plus d’entreprises déploient ces systèmes, un problème critique émerge : les agents conçus dans des environnements différents ne peuvent toujours pas travailler ensemble de manière transparente. Les outils disponibles sur le marché et les agents personnalisés reposent souvent sur des architectures et des règles de communication distinctes. Sans moyen de les synchroniser, les gains de productivité restent limités.

Arnal Dayaratna, vice-président chargé de la recherche sur le développement de logiciels chez IDC, l’a expliqué clairement : « Personne ne connaît encore la solution définitive. L’industrie est à la recherche d’une couche de données universelle, qui permette à ces agents d’échanger des informations et de coopérer efficacement. Cette couche aiderait à normaliser la façon dont les agents communiquent, garantissant ainsi une interaction harmonieuse, même entre différents types de systèmes.

Pour les dirigeants, le message est direct. Élaborez votre stratégie d’automatisation en tenant compte de l’interopérabilité. Ne vous engagez pas totalement dans des écosystèmes fermés qui pourraient vous isoler plus tard. Au lieu de cela, donnez la priorité aux cadres qui ajoutent de la flexibilité et de la sécurité. Maintenez une structure capable de s’adapter aux nouveaux développements en matière de communication entre agents d’intelligence artificielle. Les systèmes fragmentés ralentiront l’innovation, mais ceux qui peuvent échanger des données efficacement auront une longueur d’avance lorsque le marché arrivera à maturité.

Incompatibilité entre les protocoles de communication des agents concurrents

Les agents d’intelligence artificielle s’appuient aujourd’hui sur des règles logicielles appelées « protocoles » pour communiquer et partager des informations. Plusieurs acteurs majeurs façonnent ces normes, chacun avec une vision différente. Anthropic a développé le Model Context Protocol (MCP), qui régit la manière dont les agents accèdent aux données et aux outils au sein de plateformes de confiance telles que Claude Desktop. Agent2Agent (A2A) de Google adopte une approche plus large, en utilisant des « cartes d’agent » structurées pour identifier et interagir avec d’autres agents. Le protocole de réseau d’agents (ANP) à code source ouvert se concentre quant à lui sur la découverte d’agents sur le web ouvert.

L’étude de Microsoft met en évidence un point essentiel : aucun de ces systèmes n’a été conçu pour communiquer entre eux. Chacun suppose des limites de confiance différentes, ce qui crée des frictions lorsque les entreprises souhaitent utiliser des agents provenant de plusieurs fournisseurs. Il en résulte un patchwork d’intégrations, où les entreprises doivent créer manuellement des API et des connecteurs pour relier ces protocoles. Cela ralentit l’adoption et augmente la complexité de la maintenance.

Pour les dirigeants, cette fragmentation représente à la fois un risque et une opportunité. Le risque consiste à s’engager dans une technologie qui pourrait bientôt perdre sa compatibilité ou son soutien. L’opportunité consiste à façonner l’architecture interne en fonction de l’adaptabilité, en concevant des systèmes capables de changer de protocole ou d’en intégrer de nouveaux sans interruption. En se préparant dès maintenant à l’évolution des protocoles, les entreprises peuvent agir plus rapidement lorsque le marché se standardise inévitablement autour de quelques systèmes dominants.

La conclusion est claire : n’attendez pas l’arrivée d’une norme universelle. Construisez vos systèmes en pensant qu’elle n’existera jamais. La flexibilité est votre meilleure protection dans un paysage de l’IA en évolution rapide, défini par une innovation rapide et des bases techniques changeantes.

Experts Okoone
PARLONS-EN !

Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.

Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.

Veuillez saisir une adresse email professionnelle valide.

L’évolution rapide des normes de protocole présente des risques pour l’avenir

L’écosystème des agents d’intelligence artificielle évolue à une vitesse remarquable. Ce qui fonctionne aujourd’hui pourrait être dépassé dans quelques mois. De nouveaux outils et protocoles apparaissent plus rapidement que la plupart des équipes informatiques ne peuvent s’adapter. Ce niveau d’évolution est à la fois prometteur et incertain. Steve Wilson, Chief AI Officer chez Exabeam, l’a clairement indiqué lorsqu’il a fait remarquer que « tous ces éléments seront renversés et subsumés et que cela se produira très rapidement ». Il a souligné que même le Model Context Protocol (MCP) d’Anthropic est déjà en train de tomber en disgrâce parce que les développeurs s’orientent vers des formats plus simples et plus légers qui permettent un développement et un déploiement plus rapides.

Pour les grandes organisations, ce renouvellement rapide peut être perturbant. Investir massivement dans un protocole peut créer une dette technique lorsque des systèmes plus récents et plus efficaces le remplacent. Le véritable défi n’est pas seulement de suivre le rythme, mais de s’assurer que l’infrastructure reste agile lors des mises à jour constantes. Les DSI et les directeurs techniques qui mettent l’accent sur la conception modulaire et l’intégration ouverte seront mieux à même d’absorber ces changements.

Les dirigeants doivent considérer la flexibilité du protocole comme une priorité stratégique. L’objectif n’est pas de choisir un système « parfait », mais d’en créer un qui puisse évoluer sans réorganisation majeure. C’est en restant adaptable que les déploiements d’IA de niveau entreprise resteront viables face à une transformation quasi continue. Les entreprises qui peuvent changer de cap rapidement seront en mesure de profiter des avantages des nouvelles technologies au lieu d’être ralenties par elles.

Nécessité de l’expérimentation et d’une infrastructure informatique modulaire

Le rythme d’évolution de l’IA oblige les DSI à repenser la façon dont ils planifient, testent et adaptent les technologies. L’expérimentation n’est plus facultative, c’est une exigence concurrentielle. Jim Swanson, DSI chez Johnson & Johnson, a souligné que sans expérimentation active, les organisations risquent de prendre du retard. L’équipe de J&J applique déjà des architectures modulaires et redéfinit les flux de travail de l’entreprise qui s’étendent sur plusieurs plateformes et ensembles de données. Cette approche leur permet de pivoter en fonction de l’émergence de nouvelles technologies et de nouveaux protocoles.

M. Swanson a également souligné l’importance de la qualité des données et de la maturité des systèmes, affirmant que la véritable valeur de l’entreprise n’apparaît que lorsque « vous la mariez avec la qualité des données et la maturité de l’ensemble de la pile technologique, y compris la composante IA ». En pratique, cela signifie qu’il faut combiner flexibilité et discipline. L’expérimentation ne doit pas se faire au détriment de la gouvernance ou de la sécurité, elle doit s’aligner sur les plans d’architecture de l’entreprise à long terme.

Pour les dirigeants, l’idée clé est de maintenir une infrastructure modulaire qui permet des changements rapides sans déstabiliser les systèmes critiques. Encouragez vos équipes à tester de nouveaux protocoles et outils d’IA, mais insistez sur des cadres qui réduisent les coûts de changement. Une configuration modulaire garantit que les nouveaux outils peuvent être intégrés ou remplacés rapidement, ce qui permet à l’organisation de rester à jour sans perturbations majeures. Les entreprises qui fonctionnent de cette manière ne se contentent pas de réagir au changement, elles donnent le ton.

Mise en œuvre de mécanismes d’orchestration et de contrôle pour régir le comportement de l’IA

Les agents d’IA devenant de plus en plus autonomes, la gouvernance doit évoluer tout aussi rapidement. Sans systèmes de contrôle, de multiples agents opérant à travers les fonctions de l’entreprise peuvent prendre des décisions incohérentes ou entreprendre des actions contradictoires. Carter Busse, DSI de Workato, conseille aux DSI de mettre en place de solides contrôles d’orchestration, de politique et de transaction entre les agents et les systèmes d’entreprise. Ces contrôles garantissent que l’organisation garde un contrôle total sur la façon dont l’IA se comporte et interagit avec les processus d’entreprise.

L’objectif est clair : garantir l’autonomie sans perdre l’autorité. Les entreprises ont besoin de structures de gouvernance en couches qui définissent comment et quand les agents peuvent accéder à des données sensibles, interagir avec des systèmes critiques ou déclencher des processus métier. Une orchestration appropriée garantit que chaque action de l’IA s’aligne sur les normes opérationnelles et de conformité, donnant aux dirigeants l’assurance que leurs systèmes se comportent de manière prévisible.

Pour les dirigeants, la mise en œuvre de ces contrôles n’a pas pour but de ralentir l’adoption de l’IA, mais de permettre une mise à l’échelle en toute sécurité. Lorsque des cadres d’orchestration sont en place, les entreprises peuvent déployer plus d’agents pour plus de tâches tout en maintenant la conformité et la fiabilité des opérations. Cette approche permet d’accélérer l’innovation sans sacrifier la responsabilité, la stabilité ou la confiance dans les systèmes de prise de décision numériques de l’organisation.

Parallèles entre les normes actuelles en matière d’IA et les guerres de protocoles historiques

La vague actuelle de développement de protocoles d’IA reflète un schéma familier mais accéléré. Des normes techniques concurrentes émergent simultanément, chacune soutenue par des organisations et des communautés de développeurs de premier plan. Au fil du temps, certaines s’effaceront et d’autres domineront. Arnal Dayaratna, vice-président chargé de la recherche chez IDC, a souligné que ces systèmes agentiques en sont encore à leurs débuts, ce qui signifie que la consolidation est inévitable et qu’elle se produira probablement plus rapidement que les mouvements technologiques précédents.

Cette consolidation va remodeler la façon dont les entreprises adoptent l’IA. À l’heure actuelle, la fragmentation oblige les DSI à créer des intégrations personnalisées et à maintenir l’interopérabilité entre de multiples agents et protocoles. Mais au fur et à mesure que les normes se formeront et se stabiliseront, la voie sera libre pour une mise en œuvre à grande échelle plus harmonieuse. Cette stabilité permettra une gouvernance plus cohérente, des cycles de déploiement plus rapides et une collaboration plus large entre les systèmes d’IA de différents fournisseurs.

Pour les décideurs, le message est de préparer l’infrastructure et les équipes au changement de normes qui s’annonce. Évitez les investissements à long terme liés à un protocole ou à un fournisseur jusqu’à ce que le marché montre des signes de convergence. Restez en contact avec les organismes de normalisation émergents et les leaders technologiques qui favorisent l’interopérabilité. Lorsque la consolidation arrivera, les entreprises qui auront suivi la progression de près effectueront une transition en douceur et tireront rapidement profit des écosystèmes d’IA unifiés et très efficaces qui en découleront.

Principaux faits marquants

  • L’interopérabilité doit guider la stratégie d’IA : Les DSI doivent donner la priorité à la mise en place de systèmes flexibles qui permettent aux agents d’IA de différents environnements de communiquer efficacement, en garantissant l’évolutivité et en réduisant les frictions opérationnelles.
  • Les protocoles fragmentés ont besoin de solutions de transition : Les protocoles tels que MCP, Agent2Agent et ANP n’ayant pas de compatibilité native, les dirigeants doivent investir dans des cadres d’intégration et se préparer à la consolidation du secteur tout en évitant de dépendre d’un seul fournisseur.
  • L’adaptabilité protège les investissements à long terme : Les normes de protocole évoluent rapidement ; les dirigeants devraient adopter des infrastructures modulaires qui peuvent évoluer sans nécessiter de remaniement majeur, ce qui garantit une certaine souplesse à mesure que de nouvelles technologies apparaissent.
  • L‘expérimentation génère un avantage concurrentiel : les responsables informatiques devraient encourager l’expérimentation contrôlée de nouveaux systèmes d’IA tout en maintenant une gouvernance solide, garantissant à la fois l’innovation et la stabilité opérationnelle.
  • La gouvernance n’est pas négociable pour l’IA autonome : les DSI doivent mettre en œuvre des mécanismes d’orchestration, de politique et de contrôle pour maintenir la visibilité et l’autorité sur les actions pilotées par l’IA dans toutes les fonctions de l’entreprise.
  • La normalisation arrive à grands pas, il faut s’y préparer à l’avance : À mesure que le marché des protocoles d’IA mûrit et se consolide, les décideurs doivent suivre de près les évolutions et concevoir des systèmes prêts à s’adapter rapidement à l’émergence de normes dominantes.

Alexander Procter

avril 10, 2026

10 Min

Experts Okoone
PARLONS-EN !

Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.

Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.

Veuillez saisir une adresse email professionnelle valide.