L’IA agentique entraîne une complexité sans précédent dans la gestion des identités et des autorisations
Les agents d’intelligence artificielle commencent à fonctionner de manière indépendante dans les systèmes centraux des entreprises, le courrier électronique, les bases de données clients et les systèmes de gestion de la relation client, en exécutant des tâches qui requièrent habituellement une autorisation humaine. La question fondamentale est la suivante : sous quelle autorité ces agents agissent-ils ? Nancy Wang, directrice technique de 1Password, a décrit cette question comme le principal défi à relever. Authentifier un agent, confirmer qu’il est autorisé à exister, est relativement simple. Définir l’autorisation, ce que cet agent est autorisé à faire, est beaucoup plus complexe.
Pour les entreprises, il s’agit d’une question de gouvernance qui se cache derrière un problème technique. Les agents d’IA ne se contentent pas d’interagir avec les données, ils agissent sur elles. Les systèmes d’identité traditionnels ont été conçus pour des humains qui se connectent et se déconnectent, et non pour des systèmes autonomes qui apprennent, s’adaptent et agissent en permanence. Ce changement redéfinit le contrôle d’accès, qui passe de listes de permissions statiques à des autorisations dynamiques et contextuelles qui s’adaptent à l’évolution des agents.
Les dirigeants doivent reconnaître l’importance de cette transition. Des cadres d’autorisation mal conçus exposeront les entreprises à des violations et à des responsabilités d’un niveau jamais atteint auparavant. Les décideurs doivent promouvoir des structures de gouvernance de l’IA qui incluent des règles explicites pour l’étendue de l’accès, l’approbation des tâches et l’enregistrement des audits à chaque niveau d’action. Les entreprises qui y parviendront auront un avantage en matière de sécurité similaire à celui des premiers utilisateurs de l’authentification à deux facteurs, une attente de confiance par défaut.
L’évolution des outils d’entreprise reflète celle des gestionnaires de mots de passe grand public.
Nancy Wang a fait part d’un scénario familier à 1Password : le produit a commencé comme un outil grand public, mais il est entré dans les systèmes d’entreprise de manière organique lorsque les employés l’ont intégré dans leur flux de travail. Les gens font confiance aux outils qui fonctionnent, et si un produit s’avère fiable dans un cadre personnel, il passe naturellement à une utilisation professionnelle. Le même schéma se reproduit aujourd’hui avec l’IA. Les développeurs individuels et les équipes adoptent des agents d’IA génératifs par commodité, souvent plus rapidement que leurs services informatiques ne peuvent établir des politiques de gouvernance.
Ce schéma n’est pas dangereux en soi, mais il requiert l’attention de la direction. Lorsque des outils d’IA grand public entrent dans les piles de l’entreprise, les limites entre l’utilisation autorisée et non autorisée s’estompent. Ce qui commence comme un gain d’efficacité peut devenir une grave vulnérabilité en matière de sécurité si elle n’est pas correctement gérée. M. Wang a souligné que « les agents ont aussi des secrets », ce qui signifie que ces outils stockent ou accèdent à des informations d’identification qui doivent être protégées avec la même rigueur que les mots de passe des utilisateurs humains.
Les dirigeants doivent traiter les agents d’IA comme des identités numériques de premier ordre dans leur stratégie de cybersécurité. L’objectif est une autonomisation contrôlée, permettant à l’innovation d’avancer rapidement tout en maintenant la transparence, la traçabilité et des normes cohérentes dans tous les départements. Comme dans le cas de l’essor de la culture « apportez votre propre appareil », le fait d’ignorer l’adoption informelle ne l’arrêtera pas. Les politiques de l’entreprise doivent s’adapter à la façon dont les gens travaillent réellement, et non pas à la façon dont nous supposons qu’ils travailleront.
Dans l’environnement des entreprises d’aujourd’hui, l’équilibre entre l’autonomie et la responsabilité déterminera la sécurité et l’efficacité avec lesquelles les organisations mettront à l’échelle la productivité basée sur l’IA. Celles qui associent sécurité et simplicité seront en tête.
Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.
Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.
Les pratiques des développeurs exacerbent les risques de sécurité lors de l’intégration de l’IA dans les environnements de codage.
La façon dont les développeurs interagissent aujourd’hui avec les outils d’IA crée l’un des plus grands risques de sécurité dans les environnements d’entreprise. Alex Stamos, Chief Product Officer chez Corridor, a souligné que de nombreux développeurs collent encore des noms d’utilisateur, des mots de passe et des clés API directement dans les invites de l’IA. Cela crée une voie d’exposition directe pour les données sensibles, car les invites sont souvent traitées ou stockées dans des systèmes externes. Il s’agit d’une erreur élémentaire, mais elle est fréquente dans tous les secteurs d’activité.
Des entreprises comme 1Password s’adaptent. Nancy Wang a expliqué que leurs systèmes analysent automatiquement le code de sortie pour détecter les informations d’identification en texte clair et les placer dans un espace de stockage sécurisé avant qu’elles ne persistent. Cette protection automatisée correspond à la façon dont les entreprises doivent évoluer : la couche de sécurité doit être invisible pour l’utilisateur mais toujours active. Toutefois, M. Wang a reconnu l’existence d’une tension fondamentale : si les outils sont difficiles à mettre en place ou s’ils ralentissent les flux de travail, les gens les contournent. Cela se produit même dans les entreprises pleinement conscientes des implications en matière de sécurité.
Les dirigeants doivent comprendre cet élément comportemental. La productivité des développeurs et la cybersécurité doivent coexister sans friction. Des contrôles trop rigides nuisent à la vélocité, tandis qu’une surveillance laxiste ouvre la porte aux violations. La priorité de l’exécutif devrait être d’investir dans la « facilité d’utilisation sécurisée », en faisant des pratiques sûres l’option la plus facile plutôt que la plus lourde. Cette approche permet non seulement de protéger les systèmes critiques, mais aussi de maintenir la motivation et l’efficacité des meilleurs ingénieurs.
Les agents de codage de l’IA posent des défis uniques que les outils traditionnels d’analyse de la sécurité ne sont pas conçus pour relever.
La plupart des anciens scanners de sécurité ont été conçus pour l’analyse statique, des outils qui inspectent le code ligne par ligne, signalant les problèmes sur la base de règles prédéfinies. Les assistants de codage de l’IA ne fonctionnent pas de cette manière. Ils génèrent, testent et réécrivent le code de manière dynamique, des centaines de fois plus vite que les systèmes statiques ne peuvent réagir. Alex Stamos, de Corridor, a souligné que même de petites erreurs de détection, telles que les faux positifs, peuvent faire dérailler le fonctionnement de ces systèmes d’IA. Une fois qu’un modèle d’IA marque un morceau de code comme défectueux, il continue à ajuster son comportement sur la base de ce retour d’information, ce qui amplifie souvent l’erreur initiale.
Cela signifie que les outils de sécurité ont besoin d’un nouveau modèle de fonctionnement. Le balayage en temps réel doit trouver un équilibre entre vitesse et précision sans interrompre le flux de codage génératif. Le défi est technique, mais ses conséquences sont stratégiques. L’incapacité à détecter rapidement les vulnérabilités peut compromettre les systèmes centraux ; les fausses alertes perturbent la productivité et la confiance dans les pipelines de développement. Atteindre des temps de réponse inférieurs à la seconde tout en maintenant la précision est désormais une attente fondamentale, et non plus une amélioration.
Pour les décideurs, il est essentiel de comprendre ce changement. Les outils de sécurité ne sont plus seulement une fonction de backend, ils font désormais partie de l’environnement de développement actif. La couche d’IA qui assiste les codeurs doit également les défendre. Les entreprises qui investissent dans l’analyse adaptative et contextuelle maintiendront leurs pipelines de développement rapides et sécurisés, en évitant les revers des outils obsolètes qui ne peuvent pas suivre la collaboration de l’IA en temps réel.
Les cadres d’autorisation actuels sont mal équipés pour gérer les droits d’accès étendus des agents d’intelligence artificielle.
Les agents d’intelligence artificielle bénéficient d’un accès bien supérieur à ce que la plupart des systèmes d’entreprise ont été conçus pour gérer. Spiros Xanthos, fondateur et PDG de Resolve AI, explique que ces agents ont généralement plus de privilèges que les applications conventionnelles, des permissions qui peuvent exposer des données ou permettre des actions involontaires. Ce profil d’accès élevé pose un problème de sécurité direct, car un agent exploité pourrait agir pour le compte d’un attaquant.
Nancy Wang, directrice technique de 1Password, a fait remarquer que les normes existantes telles que SPIFFE et SPIRE, développées pour sécuriser les charges de travail dans les environnements conteneurisés, sont testées pour les systèmes d’IA mais ne s’alignent pas totalement sur le mode de fonctionnement des agents autonomes. Ces cadres gèrent les identités des machines, mais manquent de souplesse pour les autorisations dynamiques et de courte durée qu’exige l’IA. Mme Wang a insisté sur la nécessité de disposer d’informations d’identification limitées dans le temps et dans l’espace. En d’autres termes, l’accès doit être limité à des actions spécifiques dans des fenêtres définies, afin de minimiser l’exposition aux menaces.
Les dirigeants devraient se concentrer sur l’établissement de protocoles d’identité conçus spécifiquement pour les écosystèmes d’IA. Cela signifie qu’il faut appliquer des définitions de politiques granulaires, en liant l’identité de chaque agent, l’étendue de son travail et le temps d’activité à un enregistrement d’audit vérifiable. Les clés d’accès générales et permanentes ne répondent plus aux normes de sécurité modernes. L’architecture doit évoluer vers l’autorisation contextuelle, en veillant à ce que les agents soient habilités à agir uniquement où et quand c’est nécessaire.
Les dirigeants devraient considérer cela comme une opportunité de moderniser entièrement la gestion des accès de l’entreprise. Autoriser des tâches plutôt que des rôles permet non seulement de réduire l’exposition à la cybersécurité, mais aussi d’accroître le contrôle opérationnel, en alignant plus étroitement les actions de l’entreprise sur des intentions vérifiables.
Les normes ouvertes définiront à terme l’avenir de l’autorisation des agents d’IA, dépassant les approches propriétaires.
La course à la sécurisation des écosystèmes d’IA a incité des dizaines d’entreprises à proposer des solutions propriétaires. Mais Alex Stamos, Chief Product Officer chez Corridor, a clairement indiqué qu’aucun de ces systèmes fermés ne dominera. Au contraire, les normes ouvertes, en particulier les extensions d’OpenID Connect (OIDC), apparaissent comme les candidats les plus solides pour une adoption à long terme. Les systèmes ouverts favorisent l’interopérabilité et la confiance de l’ensemble du secteur, deux éléments essentiels pour gérer les identités des agents d’intelligence artificielle qui doivent être coordonnées entre plusieurs plateformes et fournisseurs.
Les entreprises doivent considérer l’adoption de normes ouvertes comme une décision stratégique. Les approches propriétaires limitent souvent la flexibilité, lient les organisations à des fournisseurs spécifiques et créent des goulets d’étranglement au niveau de l’intégration. Pour les entreprises opérant à l’échelle mondiale, le besoin de cohérence entre les plates-formes l’emporte sur la commodité à court terme des systèmes spécifiques à un fournisseur. L’adhésion à des normes ouvertes permet aux équipes internes et aux partenaires externes d’interagir de manière sûre et prévisible.
Les dirigeants devraient inciter leurs organisations à contribuer à ces cadres ouverts plutôt que d’attendre qu’un seul fournisseur leur dicte la marche à suivre. Les normes collaboratives accélèrent la stabilité, réduisent le risque réglementaire et permettent l’innovation future sur des fondations sûres. Les entreprises qui s’empressent d’aligner leurs systèmes sur les protocoles d’identité ouverts émergents gagneront à la fois en sécurité et en crédibilité sur le marché à mesure que les réseaux d’IA s’interconnecteront davantage entre les secteurs d’activité.
À grande échelle, même les cas marginaux de gestion de l’identité deviennent des vulnérabilités systémiques.
Lorsque les systèmes fonctionnent à l’échelle mondiale, les petites failles ne restent plus des incidents isolés. Alex Stamos, directeur des produits chez Corridor et ancien directeur de la sécurité des informations chez Facebook, a déclaré que la plateforme était confrontée à environ 700 000 prises de contrôle de comptes par jour. Ce niveau d’exposition montre comment des irrégularités minimes, lorsqu’elles sont multipliées par des milliards d’interactions, se transforment rapidement en menaces de sécurité majeures. La même réalité façonnera la prochaine phase d’adoption de l’IA, où l’identité et l’autorisation de chaque agent doivent être validées en permanence et de manière transparente.
Avec la prolifération des systèmes d’intelligence artificielle, ce qui était considéré comme un comportement exceptionnel ou rare devient une routine. Chaque identifiant mal configuré, chaque action non vérifiée ou chaque autorisation non surveillée peut avoir des conséquences concrètes, affectant non seulement l’intégrité des données, mais aussi la confiance des utilisateurs. Les entreprises qui considèrent l’échelle comme un facteur technique plutôt que comme un défi de gouvernance prendront du retard. La prévention de ces défaillances nécessite une supervision intégrée, un contrôle proactif et une évolution vers une validation automatisée des identités capable de répondre aux anomalies à la vitesse de la machine.
Pour les dirigeants, la leçon est claire : l’évolutivité doit inclure l’évolutivité de la sécurité. Chaque processus, de la vérification de l’identité au contrôle d’accès, doit pouvoir gérer une croissance exponentielle sans augmenter les risques. Les solutions traditionnelles basées sur des audits périodiques ou des approbations manuelles ne peuvent pas gérer des milliards d’interactions autonomes par jour. Investir dans une infrastructure d’identité continue et basée sur des normes est désormais une priorité pour l’entreprise, et non plus une mise à niveau facultative.
Les dirigeants qui agissent rapidement pour renforcer les cadres de gestion des identités avant le déploiement massif d’agents d’IA établiront leurs organisations comme des acteurs sûrs et fiables dans un écosystème d’IA en évolution rapide. Le coût de l’inaction augmentera fortement à mesure que le volume augmentera, et les entreprises qui sous-estiment l’impact de l’échelle sur le contrôle des identités risquent de se retrouver à réagir aux crises plutôt qu’à les prévenir.
Réflexions finales
Les agents d’IA ne sont pas simplement une autre couche de logiciel. Ils participent activement à vos systèmes, prennent des décisions, déplacent des données et représentent votre organisation d’une manière qui exige une gouvernance claire. Les défis en matière d’identité et d’autorisation décrits tout au long de cet article ne sont pas théoriques, ils sont structurels. Ils définissent la manière dont votre organisation pourra faire évoluer l’IA de manière sûre, efficace et responsable.
La leçon à tirer pour les dirigeants est directe. S’appuyer sur d’anciens cadres conçus pour des utilisateurs humains statiques ne suffira pas à répondre aux exigences des écosystèmes d’IA adaptatifs et interconnectés. Les entreprises qui n’agissent pas seront obligées d’adapter des solutions plus tard, à un coût plus élevé et avec un contrôle moindre. Le véritable facteur de différenciation n’est pas la rapidité avec laquelle vous adoptez l’IA, mais la manière intelligente dont vous la sécurisez.
Les décideurs devraient dès à présent donner la priorité à trois choses : premièrement, imposer des normes d’identité modernes conçues pour les systèmes autonomes ; deuxièmement, mettre en œuvre des autorisations limitées dans le temps et dans les tâches ; et troisièmement, s’aligner sur des cadres ouverts et interopérables qui peuvent évoluer avec la technologie.
L’IA va mettre à l’épreuve toutes les hypothèses que nous avons faites sur l’accès, le contrôle et la confiance. Les entreprises qui mèneront cette transformation ne se contenteront pas d’être conformes ou sûres, elles jetteront les bases de la prochaine génération d’entreprises intelligentes et résilientes.
Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.
Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.


