Les systèmes traditionnels d’identité d’entreprise ont été conçus pour les utilisateurs humains

Depuis des décennies, les systèmes d’identité d’entreprise reposent sur une hypothèse centrale, à savoir que chaque utilisateur est un être humain. Ces systèmes reposent sur l’idée d’une responsabilité claire, de références stables et d’un comportement humain prévisible. Ils ont été conçus pour authentifier et autoriser des personnes, et non des logiciels autonomes fonctionnant à la vitesse d’une machine.

Aujourd’hui, les agents d’IA agissent presque comme des employés. Ils se connectent aux systèmes, gèrent les données et exécutent des commandes au nom des équipes. Le problème, c’est qu’ils ne se comportent pas comme des humains. Ils peuvent être clonés, mis à l’échelle ou modifiés en quelques secondes. Ils n’ont pas d’intention, de contexte ou de jugement. Nancy Wang, directrice technique de 1Password et Venture Partner chez Felicis, l’explique clairement : les modèles traditionnels supposent que les utilisateurs agissent de manière cohérente et peuvent être tenus pour responsables, mais les agents bouleversent complètement ces attentes. Lorsque des systèmes d’IA héritent d’informations d’identification humaines ou partagent des comptes, vous ne savez plus exactement qui agit et sous quelle autorité.

Pour les dirigeants, cela signifie qu’il est temps d’envisager différemment la gouvernance des identités. Il ne s’agit pas seulement d’une mise à jour technique, mais de garder le contrôle face à l’expansion de l’automatisation. L’identité ne peut plus être un contrôle de sécurité passif. Elle doit devenir un système actif qui comprend les actions en temps réel et les aligne sur l’autorité définie.

Selon l’architecture de confiance zéro du NIST (SP 800-207), toute entité, y compris les machines et l’IA, doit être considérée comme non fiable jusqu’à preuve du contraire. Ce principe constitue le point de départ de la prochaine évolution des entreprises : la conception de systèmes d’identité capables de traiter les agents d’IA comme des acteurs distincts et responsables, avec une vérification explicite et des privilèges limités.

Ce changement n’est pas facultatif. C’est le fondement de la confiance dans une entreprise pilotée par l’IA. Les organisations qui agiront en premier établiront de nouvelles normes en matière de contrôle, de gouvernance et de fiabilité opérationnelle à l’ère de l’automatisation intelligente.

Les environnements de développement modernes deviennent des points chauds en raison de l’intégration d’agents d’intelligence artificielle.

Le nouvel environnement de développement est plus qu’un espace de travail pour les ingénieurs, c’est désormais un système vivant qui lit, écrit et exécute dans toute une infrastructure. L’ajout d’agents d’intelligence artificielle a multiplié cette complexité. Ces agents peuvent analyser le code, récupérer des données et automatiser les flux de travail. Mais ils peuvent également être manipulés au moyen d’instructions cachées dans la documentation ou les fichiers de configuration.

Cela n’a rien d’hypothétique. Lorsqu’un agent d’intelligence artificielle examine un fichier, il ne se contente pas de rechercher les commandes visibles, il traite l’ensemble du contexte, y compris les commentaires et les métadonnées. Cela ouvre la porte à des injections d’invites malveillantes, où un texte invisible conduit un agent à révéler des informations d’identification ou à déclencher des opérations non autorisées. En bref, le système peut être induit en erreur à partir de son propre environnement.

Pour les dirigeants, cela transforme les plateformes de développement, autrefois considérées comme internes et sûres, en zones de sécurité actives. La gouvernance doit désormais inclure chaque entrée qu’un système d’IA pourrait interpréter. La sécurité périmétrique traditionnelle ne fonctionne pas lorsque la menace provient de la chaîne d’outils elle-même.

Les dirigeants devraient s’efforcer de renforcer les points de contrôle de la validation dans leurs processus de développement. Cela signifie qu’il faut renforcer le contrôle des sources pour les outils internes, exiger la vérification des actions demandées par les agents et mettre en œuvre une surveillance continue qui capture à la fois le comportement de l’agent et les réponses du système. La sécurité ne peut plus supposer l’intention ou la légitimité, elle doit vérifier les deux avant d’autoriser l’exécution.

À mesure que l’IA devient un élément central des flux de travail d’ingénierie, chaque fichier, ensemble de données et ligne de code devient une partie de la surface de sécurité. À l’avenir, toute entreprise qui construit ou utilise l’IA dans le développement doit considérer l’identité, le contrôle des entrées et l’auditabilité comme des éléments essentiels de sa conception de la sécurité.

Experts Okoone
PARLONS-EN !

Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.

Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.

Veuillez saisir une adresse email professionnelle valide.

Les agents autonomes de l’IA posent d’importants problèmes de confiance et de responsabilité.

Les agents d’IA agissent sans conscience personnelle ni jugement éthique. Ils se déplacent continuellement dans les systèmes, en suivant des commandes et en exécutant des tâches qui dépassent la vitesse et l’échelle humaines. Bien que cela apporte de l’efficacité, cela supprime le raisonnement contextuel que les opérateurs humains fournissent. Ces agents ne peuvent pas déterminer si une demande est légitime, ni évaluer de manière indépendante si une action est conforme à la politique de l’entreprise ou aux limites légales.

Cette réalité crée une lacune importante en matière de responsabilité. Lorsqu’un agent prend une décision qui conduit à l’exposition de données ou à une mauvaise configuration du système, la responsabilité n’est pas claire. Il ne suffit pas de savoir ce que l’agent a fait ; les entreprises doivent comprendre sous quelle autorité l’action a été prise et pourquoi. Ce type d’activité continue dépasse également les contrôles traditionnels, des règles conçues pour des utilisateurs humains qui supposent des actions occasionnelles et délibérées.

Pour les cadres supérieurs, cela introduit des risques opérationnels et de réputation. L’entreprise doit établir des garde-fous solides, des limites d’autorisation définies et une surveillance continue pour gérer ce que ces systèmes peuvent et ne peuvent pas faire. Les contrôles de sécurité ne doivent pas s’arrêter une fois qu’un agent a accès au système ; les autorisations doivent s’adapter dynamiquement, en réagissant en temps réel à l’évolution du contexte.

Nancy Wang, directrice technique de 1Password et Venture Partner chez Felicis, souligne clairement le problème : les agents « n’ont pas de code moral » et doivent donc opérer dans des limites précises. Il ne s’agit pas d’une déclaration philosophique, mais d’un mandat pratique. Si une organisation ne peut pas restreindre clairement ce qu’un agent peut exécuter ou vérifier la légitimité de ses commandes, le système devient imprévisible.

Les dirigeants devraient s’attendre à ce que leurs modèles de sécurité évoluent vers des systèmes de contrainte et de responsabilité continues, conçus pour capturer non seulement les journaux d’action mais aussi les chemins d’intention, en veillant à ce que chaque étape de l’automatisation soit à la fois traçable et défendable. La transformation de la gouvernance dépendra de la capacité de l’organisation à définir, appliquer et contrôler l’autorité à chaque niveau de la prise de décision pilotée par l’IA.

Les systèmes traditionnels de gestion des identités et des accès (IAM) sont inadaptés à la gestion des comportements dynamiques de l’IA agentique.

Les systèmes IAM existants ont été conçus pour la stabilité. Ils utilisent des rôles fixes, des autorisations à long terme et des processus d’approbation structurés. Les agents d’intelligence artificielle fonctionnent dans des conditions totalement différentes, sans interruption, en changeant de contexte et souvent en se reproduisant eux-mêmes. Ce décalage génère des angles morts où les agents détiennent trop de pouvoir pendant trop longtemps ou agissent de manière invisible au sein du réseau.

Les modèles de privilèges statiques sont particulièrement problématiques. Ils supposent que les exigences en matière d’accès restent les mêmes au fil du temps. En revanche, les flux de travail pilotés par l’IA nécessitent des ajustements dynamiques et granulaires des privilèges pour chaque action. Le concept de « moindre privilège » doit désormais s’étendre à des cycles de vie de l’ordre de la milliseconde, avec expiration automatique après utilisation. Les outils IAM traditionnels ne peuvent pas gérer ce niveau de dynamisme sans une adaptation majeure.

La surveillance comportementale ne fonctionne pas non plus. Les modèles d’activité humaine sont prévisibles : heures de bureau, points d’accès réguliers, applications familières. Les agents n’ont aucune de ces caractéristiques. Ils travaillent en permanence, sur plusieurs systèmes, souvent en parallèle. Cela rend les systèmes existants de détection des anomalies à la fois inefficaces et peu fiables, créant des fausses alertes excessives ou manquant complètement les actions coordonnées des agents.

En outre, les agents peuvent générer ou réutiliser des informations d’identification de manière imprévue, en opérant par le biais de comptes de service non surveillés ou d’ombres d’identité invisibles pour les tableaux de bord IAM actuels. Nancy Wang note que les systèmes traditionnels n’ont pas la capacité de gérer l’intention contextuelle, le « pourquoi » de l’action d’un agent. Sans l’intégration du contexte et de l’observabilité, les organisations ne peuvent pas voir la chaîne complète de prise de décision ou évaluer si une opération est conforme à l’autorité de l’entreprise.

Pour les dirigeants, il s’agit d’une préoccupation stratégique et non tactique. Les investissements en matière de sécurité devraient s’orienter vers des cadres d’identité adaptatifs qui combinent le contrôle d’accès en temps réel avec une intelligence comportementale conçue spécifiquement pour les systèmes autonomes. Dans un avenir proche, la résilience concurrentielle dépendra de la capacité des entreprises à redéfinir l’IAM pour gouverner à la fois les personnes et les agents de plus en plus autonomes qui agissent désormais en leur nom.

L’architecture de sécurité doit évoluer vers un cadre centré sur l’identité et conscient du contexte pour gérer efficacement l’IA agentique.

L’identité doit maintenant devenir la première couche de contrôle pour la sécurité de l’entreprise. La traiter comme une fonction isolée n’est plus adapté à l’échelle ou au comportement des systèmes d’intelligence artificielle. Lorsque des agents opèrent dans des environnements multiples, les outils de sécurité traditionnels qui dépendent de l’intention humaine ou d’autorisations statiques n’ont pas la réactivité requise. Un nouveau modèle de priorité à l’identité garantit que chaque action, qu’elle émane d’une personne, d’une application ou d’un agent, est vérifiée par rapport à des signaux contextuels avant d’être autorisée.

Ce modèle futur comprend plusieurs changements essentiels. Premièrement, l’accès contextuel définit les autorisations non seulement en fonction de la ressource à laquelle on accède, mais aussi en fonction de données situationnelles, de la personne qui a lancé l’agent, de l’appareil sur lequel il s’exécute et des conditions qui entourent ses actions. Deuxièmement, la gestion des informations d’identification à connaissance nulle garantit que les agents peuvent s’authentifier sans jamais voir les informations d’identification en texte clair. Les informations d’identification sont injectées dans les processus en toute sécurité, ce qui élimine le risque d’utilisation abusive. Troisièmement, l’auditabilité améliorée permet aux équipes de sécurité de retracer chaque demande, de suivre l’autorité déléguée et de vérifier chaque étape franchie par un agent lors de l’exécution d’un flux de travail. Enfin, les limites de confiance imposées séparent l’intention de l’utilisateur de l’exécution de l’agent. Cette séparation aide les organisations à prévenir les escalades non autorisées ou les mouvements de données involontaires.

Pour les dirigeants, il ne s’agit pas seulement de renforcer les contrôles, mais aussi de créer une architecture suffisamment résiliente pour évoluer avec l’automatisation. Un système d’identité qui répond en temps réel ancre la confiance entre les humains, les machines et l’IA. Il garantit également que les actions autorisées restent visibles tout au long de la chaîne d’exécution, protégeant ainsi à la fois la performance et la conformité.

Ces principes s’alignent sur les tendances déjà visibles dans les technologies de sécurité. Les principaux fournisseurs convergent vers des plans de contrôle d’identité intégrés capables de prendre en charge l’authentification de machine à machine et l’exécution des politiques. Les organisations les plus tournées vers l’avenir traiteront l’identité non pas comme une discipline cloisonnée, mais comme la couche de connexion unissant toutes les défenses de l’entreprise.

L’avenir de la sécurité des entreprises repose sur une gouvernance adaptative des identités qui s’adresse à la fois aux acteurs humains et aux agents évolutifs de l’IA

Les agents d’IA ne sont plus des outils utilisés par les humains, ils deviennent des participants opérationnels ayant la capacité d’agir de manière autonome. Cette évolution modifie les fondements de la gouvernance. Les systèmes d’identité statiques qui dépendent de rôles fixes et d’audits programmés ne peuvent pas interpréter ou gérer des identités qui changent, se clonent ou évoluent au fil du temps. La gouvernance adaptative des identités s’attaque à ce problème en définissant et en affinant en permanence la relation entre la direction humaine et l’exécution de l’IA.

Dans cet environnement, la sécurité exige une bonne compréhension de l’identité. Les systèmes doivent savoir qui un agent représente, ce qu’il est autorisé à faire et quand son autorité expire. Chaque privilège doit être traçable, limité dans le temps et vérifiable en temps réel. Sans ces contrôles, l’autonomie se transforme en exposition ; avec eux, elle devient mesurable et sûre. L’objectif n’est pas d’arrêter l’automatisation, mais de s’assurer que chaque action qu’elle entreprend reflète une intention explicite et contrôlée dans le cadre de la politique de l’organisation.

Pour les dirigeants, l’identité adaptative est un investissement stratégique. Elle crée une couche de gouvernance durable qui aligne l’innovation sur l’assurance. À mesure que l’automatisation s’étend, les entreprises qui parviennent à cet équilibre fonctionneront plus rapidement et plus sûrement que leurs concurrents. Elles sauront exactement quand et comment leurs systèmes agissent, ce qui réduira l’incertitude et permettra une prise de décision plus sûre dans l’ensemble de l’organisation.

Nancy Wang, directrice technique de 1Password et Venture Partner chez Felicis, observe que les progrès futurs de l’IA dans la production « ne viendront pas uniquement de modèles plus intelligents. Ils viendront d’une autorité prévisible et de limites de confiance applicables ». Cette déclaration illustre bien le changement central qui s’opère dans la sécurité des entreprises. L’intelligence ne se mesure plus seulement à la capacité d’apprentissage des systèmes, mais aussi à la précision avec laquelle ils suivent les règles définies par la gouvernance.

L’orientation de l’industrie va dans ce sens. Les cadres mondiaux de cybersécurité favorisent de plus en plus une application adaptative et contextuelle des politiques, capable de vérifier en temps réel l’activité humaine et celle des machines. Les entreprises qui appliqueront ces principes établiront la prochaine norme de confiance dans l’entreprise, où les agents d’IA agissent avec clarté, autorité et responsabilité.

Principaux enseignements pour les dirigeants

  • Les modèles d’identité conçus pour les humains ne sont plus adaptés aux réalités de l’IA : Les systèmes d’identité traditionnels supposent que les utilisateurs humains ont un comportement et une responsabilité cohérents. Les dirigeants devraient donner la priorité à la refonte des cadres d’identité afin d’authentifier et d’autoriser les agents de l’IA en tant qu’entités distinctes avec des limites d’autorité claires.
  • Les environnements de développement sont devenus des fronts de sécurité actifs : Les outils de développement basés sur l’IA peuvent exécuter involontairement des commandes cachées ou malveillantes. Les dirigeants doivent s’assurer que les politiques de sécurité et d’accès au sein des pipelines de développement s’adaptent pour surveiller toutes les entrées et activités des agents d’IA en temps réel.
  • L’IA autonome exige des contrôles continus de la responsabilité : Les systèmes agentiques agissent sans contexte ni jugement, ce qui crée des risques majeurs en matière de gouvernance. Les dirigeants doivent mettre en place des garde-fous dynamiques qui limitent les actions des agents et garantissent que chaque décision est traçable jusqu’à une source humaine autorisée.
  • Les systèmes IAM existants ne parviennent pas à régir le comportement de l’IA : Les privilèges statiques et les outils de détection obsolètes ne peuvent pas gérer les actions fluides et continues des agents d’IA. Les organisations devraient accélérer l’adoption de solutions IAM adaptatives qui permettent des ajustements de privilèges en temps réel et une surveillance contextuelle.
  • La sécurité doit évoluer autour de l’identité en tant que plan de contrôle : Une architecture de sécurité prête pour l’avenir nécessite des systèmes d’identité capables de comprendre le contexte, de vérifier l’autorité et d’enregistrer chaque action de l’agent. Les dirigeants devraient faire de l’intégration de l’identité le fondement de l’investissement dans la sécurité de l’entreprise.
  • La gouvernance adaptative définira la confiance des entreprises à l’ère de l’IA : La gestion de l’automatisation en toute sécurité dépendra d’une gouvernance qui évolue avec le comportement des agents. Les dirigeants devraient mettre en place des systèmes de surveillance continue qui définissent qui un agent représente, ce qu’il peut faire et quand son autorité expire.

Alexander Procter

avril 2, 2026

15 Min

Experts Okoone
PARLONS-EN !

Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.

Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.

Veuillez saisir une adresse email professionnelle valide.