Les systèmes d’IA agentique manquent intrinsèquement de mécanismes de confiance

À l’heure actuelle, la plupart des organisations évoluent rapidement dans le domaine de l’IA. C’est une bonne chose. Mais à mesure que l’autonomie est intégrée dans les systèmes d’apprentissage automatique, nous constatons un oubli majeur : l’infrastructure de confiance n’existe tout simplement pas. Dans l’apprentissage automatique traditionnel, il y a une supervision humaine à chaque étape, des données, des modèles, du déploiement. C’est lent. Les systèmes autonomes changent la donne. Ils sont rapides, évolutifs et n’attendent pas l’intervention de l’homme. Mais c’est là que le bât blesse. Lorsque des agents, ces parties autonomes d’un système, commencent à prendre des décisions et à s’appeler les uns les autres sans vérification claire de leur identité, les choses peuvent se gâter très rapidement.

Dans un environnement de production, un système faisant tourner 50 agents, l’un d’entre eux a été compromis à la suite d’une erreur de configuration. En l’espace de six minutes, tout est tombé en panne. Pourquoi ? Parce que les agents ne pouvaient pas vérifier à qui ils parlaient. Un agent malhonnête a prétendu être notre service de déploiement de modèles. Les autres lui ont fait une confiance aveugle. Ils ont commencé à déployer des modèles corrompus. L’agent de surveillance n’a rien signalé parce qu’il considérait que tout était normal. Il s’agissait d’une défaillance systémique totale.

Il ne s’agissait pas seulement d’un problème technique, mais d’un manque de confiance fondamental. Les agents communiquaient par l’intermédiaire d’adresses IP codées en dur, sans protocole d’authentification. Ce n’est pas ainsi que l’on fait évoluer les systèmes sécurisés. C’est construire rapidement, sans fondation. Les systèmes intelligents ont toujours besoin d’une confiance de base, à commencer par des contrôles d’identité, de vérification et de capacité. Sans cela, chaque connexion est un risque.

Si vous construisez avec des agents, qu’il s’agisse d’opérations de ML, d’automatisation d’infrastructure ou de toute autre chose au niveau de l’entreprise, vous ne pouvez pas compter sur une confiance aveugle. L’IA autonome a besoin d’une base de confiance. Ce n’est pas facultatif. C’est la priorité zéro.

Une couche de confiance inspirée du DNS peut combler les lacunes en matière d’authentification et de gouvernance

Ce problème a été résolu en utilisant ce que l’on appelle l’Agent Name Service (ANS). Il s’agit d’ajouter l’identité et la confiance au mode de fonctionnement des agents. Dans les systèmes d’IA traditionnels, les agents communiquent par l’intermédiaire de liens codés en dur. « Envoyez des données à 10.0.1.45:8080 », par exemple. Dans l’ANS, les agents utilisent des noms structurés et auto-descriptifs comme a2a://concept-drift-detector.drift-detection.research-lab.v2.prod. Cela vous indique la fonction, l’équipe, la version et l’environnement de l’agent. Les noms signifient quelque chose. Plus important encore, derrière le nom se cache une identité numérique vérifiée.

Le SNA attribue à chaque agent un identifiant cryptographique, et non un simple nom. Il l’associe aux capacités déclarées de l’agent et à son niveau de sécurité. Ainsi, lorsqu’un agent en contacte un autre, il ne s’agit pas d’un simple message. Il s’agit d’une poignée de main vérifiée, soutenue par des couches d’identité et d’autorisation solides. Cela signifie qu’un agent peut prouver qui il est et ce qu’il est autorisé à faire.

Cette structure élimine le codage en dur, réduit les risques et facilite la mise à l’échelle des systèmes. Il n’y a pas de devinettes. Il n’y a pas d’hypothèse de confiance. Chaque interaction avec un agent est authentifiée, autorisée et enregistrée, de la découverte à l’exécution. C’est ainsi que l’IA autonome devrait fonctionner. Propre, sûre et interopérable.

L’ANS en production a remplacé la configuration manuelle, réduit les risques d’échec et rendu automatique l’orchestration des agents. Les décideurs qui cherchent à développer des opérations autonomes doivent y penser dès maintenant, et non pas après une brèche ou une panne. En effet, une fois que les agents sont en charge, la confiance doit être intégrée, et non ajoutée ultérieurement.

L’intégration de technologies de sécurité modernes est à la base de l’ANS

L’ANS a dû travailler avec les outils que les grandes organisations utilisent déjà. Personne ne va démanteler l’infrastructure juste pour ajouter de la confiance. Il a donc été intégré directement à Kubernetes, rendant ANS natif de Kubernetes dès le départ. Il se branche sur des éléments tels que les définitions de ressources personnalisées, les contrôleurs d’admission et les maillages de services. C’est ce qui le rend pratique pour une adoption réelle.

L’ANS s’appuie sur trois technologies pour garantir la sécurité, la traçabilité et l’autorisation de chaque agent. La première est celle des identifiants décentralisés (DID). Ils confèrent à chaque agent une identité infalsifiable et résoluble à l’échelle mondiale, fondée sur les normes du W3C. Il s’agit de la même architecture d’identité numérique que celle utilisée dans les systèmes d’authentification humaine sécurisés. Deuxièmement, il y a les preuves de non-connaissance. Elles permettent à un agent de prouver qu’il dispose des autorisations ou des capacités nécessaires pour accéder à une ressource, sans révéler comment il a obtenu cet accès ni exposer ses informations d’identification. La sécurité augmente donc sans compromettre la transparence du système ni divulguer la logique interne. Troisièmement, l’application de la politique en tant que code, à l’aide de l’Open Policy Agent (OPA). Cet agent transforme vos politiques de sécurité en morceaux de code contrôlés par version et vérifiables, garantissant ainsi l’application cohérente des règles à chaque interaction.

Chaque fois que des agents interagissent dans le cadre de ce système, ils s’authentifient à l’aide de TLS mutuel (mTLS). Mais contrairement aux configurations mTLS habituelles, qui se contentent de vérifier « qui vous êtes », l’authentification a été élargie. Le certificat ANS confirme non seulement l’identité de l’agent, mais aussi ses capacités. En d’autres termes, avant même qu’un agent puisse entreprendre une tâche, le système vérifie qu’il est autorisé à effectuer cette tâche spécifique.

Il s’agit d’une confiance renforcée par un protocole, et non par une hypothèse. C’est essentiel si vous voulez passer à des milliers, voire des dizaines de milliers, d’agents autonomes tout en gardant le contrôle. L’architecture ne dépend pas d’une plateforme ou d’un modèle de déploiement en particulier. Elle fonctionne au sein de la pile cloud-native moderne, car elle a été conçue pour ce monde dès le premier jour.

Le déploiement de l’ANS permet d’améliorer considérablement l’efficacité et la sécurité

Une fois déployés en production, les chiffres de l’ANS ont parlé d’eux-mêmes. La mise en service d’un agent, qui prenait auparavant deux ou trois jours, prend désormais moins de 30 minutes. Cela inclut tout, les contrôles de sécurité, le provisionnement des certificats, la configuration, le mappage des points d’extrémité. Tout cela est automatisé à l’aide d’un pipeline GitOps. Ainsi, au lieu de configurer manuellement les agents, ils sont définis dans un repo et déployés automatiquement, avec des politiques d’agent et des limites de confiance renforcées.

Plus important encore : les taux de réussite des déploiements sont passés de 65 % à 100 %. Auparavant, plus d’un tiers des déploiements nécessitaient l’intervention d’une personne pour trouver la mauvaise correspondance ou le bogue de configuration et le corriger. Aujourd’hui, soit le déploiement est achevé, soit il est proprement annulé. Il n’y a pas de solution intermédiaire, pas de correctifs manuels, et aucun état fragmenté n’est laissé derrière.

Les interactions entre agents se sont stabilisées à un temps de réponse inférieur à 10 millisecondes. C’est suffisamment rapide pour que des systèmes très dynamiques maintiennent une communication sécurisée sans goulot d’étranglement. L’entreprise a validé cette configuration à grande échelle, en faisant fonctionner plus de 10 000 agents simultanés. Elle a fonctionné sans ralentissement ni rupture.

Voilà à quoi devrait ressembler une infrastructure sûre et reproductible. Aucune surveillance manuelle n’est nécessaire. Chaque déploiement est contrôlable, sécurisé par une identité cryptographique, régi par une politique et capable de s’auto-guérir en cas de défaillance. Vous n’avez pas besoin de centaines d’ingénieurs pour corriger les problèmes ou déboguer les mauvaises configurations. C’est ainsi que vous pouvez mettre en œuvre l’IA à l’échelle de la production, de manière sécurisée, efficace et sans compromis.

Des flux de travail pratiques démontrent l’efficacité de l’ANS dans les opérations en temps réel

Les flux de travail réels révèlent si votre infrastructure fonctionne, et non les documents de conception. L’ANS a été mis à l’épreuve dans un environnement de détection de dérives conceptuelles. Lorsqu’un modèle de production a commencé à montrer des signes de perte de performance, en particulier une baisse de 15 % de la précision, l’agent de détection a déclenché une réponse entièrement autonome. Il ne s’est pas appuyé sur des connexions statiques ou des appels de service codés en dur. Au lieu de cela, il a interrogé l’ANS pour localiser un agent de recyclage aux capacités vérifiées, identifiées par la fonction, le fournisseur et l’environnement. Cet agent n’a répondu qu’une fois que le demandeur s’est validé lui-même par une preuve de zéro connaissance.

Vient ensuite l’application de la politique. Avant toute action, une règle de l’Open Policy Agent (OPA) a vérifié que le déclencheur de la reconversion répondait à nos conditions de gouvernance. Une fois approuvé, l’agent de recyclage a lancé la mise à jour du modèle de manière autonome, et un agent de notification a publié le statut sur Slack. Toute cette chaîne, détection, découverte, vérification, recyclage, alerte, a été exécutée en moins de 30 secondes. Aucune intervention humaine n’a été nécessaire. Chaque interaction a été authentifiée, chaque action validée et enregistrée.

C’est à cela que ressemble une orchestration sécurisée lorsque les agents ne se contentent pas de parler, mais vérifient. Ce processus n’est pas seulement programmable, il est applicable. Chaque étape confirme l’identité, la capacité et la politique prédéfinie avant l’exécution.

Pour les dirigeants d’entreprise qui se concentrent sur l’automatisation de l’IA, ce niveau d’indépendance opérationnelle, avec des limites de confiance strictes, est une exigence. Ce n’est pas un état futur. Ce n’est pas un objectif à atteindre. Vous avez besoin de systèmes qui agissent en temps réel, sans faille dans l’authentification ou le contrôle. ANS rend cela exécutable dans chaque flux de travail de l’agent.

Les entreprises doivent adopter des modèles de confiance pour la sécurité des agents d’IA

Si vous utilisez des agents autonomes, que ce soit dans le domaine des opérations, de la finance, de l’infrastructure ou autre, posez-vous la question : Vos agents peuvent-ils s’identifier les uns les autres en toute sécurité ? Peuvent-ils vérifier les informations d’identification sans exposer des données sensibles ? Les politiques sont-elles appliquées automatiquement ? Tout est-il contrôlable ?

Si la réponse à l’une de ces questions est négative, vous faites travailler des agents sur la base d’hypothèses non vérifiées. C’est un handicap, pas un atout. Les agents autonomes sont puissants, mais s’ils ne sont pas contrôlés, ce sont des points faibles qui risquent d’échouer. La confiance n’est pas quelque chose que l’on ajoute plus tard. Elle doit être conçue dès le départ. Une fois que les agents sont opérationnels et prennent des décisions en votre nom, l’exposition se multiplie. Votre posture de sécurité ne peut pas être basée sur l’espoir que tout se comporte comme prévu.

La bonne nouvelle, c’est que la technologie existe déjà. Les identifiants décentralisés pour l’identité vérifiée, les preuves à connaissance nulle pour les contrôles de capacité sécurisés, l’OPA pour l’application des politiques et Kubernetes pour l’orchestration. ANS combine tout cela dans un système unifié et prêt pour la production, open source, facile à auditer et testé sur le terrain. Vous n’avez pas besoin d’une nouvelle pile de fournisseurs. Vous n’avez pas besoin d’attendre un futur cadre.

Les systèmes que nous construisons aujourd’hui définiront l’infrastructure de l’entreprise pour la prochaine décennie. L’IA agentique est déjà là. Ce qui manque dans la plupart des déploiements, c’est l’application de la confiance au rythme de l’autonomie. ANS résout ce problème grâce à une identité basée sur des normes, une interopérabilité sécurisée et une évolutivité réelle.

Les organisations qui agissent en premier, celles qui investissent dès maintenant dans des opérations d’agents vérifiés, ne se contenteront pas d’éviter l’échec. Elles définiront la manière dont l’IA fonctionne réellement dans l’entreprise.

Principaux enseignements pour les dirigeants

  • L’IA autonome échoue sans infrastructure de confiance : Les dirigeants doivent partir du principe que les agents autonomes d’IA échoueront rapidement et largement sans mécanismes d’identité, de vérification et d’authentification intégrés dès le départ.
  • Les configurations statiques créent un risque systémique : les connexions d’agents codées en dur et l’absence d’identité cryptographique entraînent des défaillances en cascade ; les dirigeants devraient faire pression en faveur de cadres de découverte d’agents dynamiques et vérifiés.
  • L’identité cryptographique est désormais un enjeu de taille : La mise en œuvre d’une identité numérique vérifiée et de preuves de capacité sans connaissance garantit que les agents peuvent fonctionner de manière indépendante sans exposer de logique ou de secrets sensibles.
  • L’automatisation élimine les retards et les erreurs humaines : Des pipelines de déploiement sécurisés et automatisés utilisant des outils tels que GitOps et ANS réduisent le temps de déploiement des agents de 90 % et éliminent les erreurs de configuration manuelles, ce qui permet de passer à l’échelle supérieure.
  • L’orchestration en temps réel exige une gouvernance intégrée : Les entreprises doivent s’assurer que les flux de travail des agents sont identifiables, authentifiés, renforcés par des politiques et vérifiables, entièrement autonomes et sécurisés en quelques secondes.
  • La confiance dès la conception doit façonner la stratégie de l’IA dès maintenant : Il est essentiel de sécuriser les écosystèmes d’agents avec l’identité, l’application et l’auditabilité dès le premier jour ; retarder cela augmente le risque opérationnel et les coûts de remédiation futurs.

Alexander Procter

février 6, 2026

13 Min