Les agents d’IA étendent rapidement la surface d’attaque des entreprises
Les agents d’IA se connectent à plus de systèmes d’entreprise que n’importe quel autre logiciel dans l’histoire. Ils opèrent à travers les réseaux, ingèrent des données et déclenchent des actions plus rapidement que les humains ne peuvent le faire. Pourtant, les cadres qui permettent de contrôler les utilisateurs humains ne s’appliquent pas ici. Ces agents fonctionnent de manière autonome, créant de nouvelles voies d’accès et donc de nouveaux points d’entrée pour les attaquants. Spiros Xanthos, fondateur et PDG de Resolve AI, a averti que l’absence de structures de gouvernance autour de l’IA agentique rend les entreprises vulnérables. Jon Aniano, vice-président chargé des produits et des applications CRM chez Zendesk, a ajouté que les modèles de sécurité traditionnels reposent toujours sur l’identité et la surveillance humaines, et non sur des opérations autonomes de machine à machine.
L’environnement de l’entreprise a évolué plus rapidement que ses homologues en matière de sécurité. Ces systèmes se déplacent en microsecondes, tandis que la surveillance humaine fonctionne à un rythme plus lent, basé sur la prise de décision. Ce déséquilibre donne aux attaquants une plus grande marge de manœuvre pour exploiter les points d’intégration faibles et les autorisations non sécurisées des agents. En bref, l’évolution des agents d’intelligence artificielle dépasse la capacité humaine à les sécuriser.
Les cadres dirigeants doivent considérer ce changement comme un problème de leadership, et non comme un problème purement technique. La sécurité ne peut plus se concentrer uniquement sur les pare-feu et les listes de contrôle de conformité. Elle doit désormais inclure une gouvernance dynamique des agents qui agissent au nom de l’entreprise. Cela nécessite de nouvelles normes en matière de contrôle d’accès, de suivi des comportements et de responsabilité. Les dirigeants avant-gardistes se donneront pour priorité d’établir des cadres qui maintiennent l’IA agentique alignée sur les principes de sécurité de l’entreprise, bien avant qu’un incident majeur n’oblige à s’en préoccuper.
Le protocole de contexte de modèle (MCP) simplifie l’intégration
Le protocole de contexte de modèle (MCP) protocole de contexte de modèle (MCP) est devenu le préféré des entreprises parce qu’il facilite la connexion de plusieurs agents d’intelligence artificielle, outils et systèmes de données. Il accélère l’intégration en réduisant le temps consacré à la configuration et à la communication entre les systèmes. Mais cette même facilité de connexion est aussi ce qui rend le MCP risqué. Selon Spiros Xanthos de Resolve AI, les serveurs MCP sont « extrêmement permissifs » – ils autorisent souvent un accès plus large que les interfaces de programmation d’applications (API), qui ont des limites de sécurité plus strictes et prédéfinies.
Cette permissivité crée un problème. À mesure que les entreprises déploient de multiples agents dotés de privilèges d’accès distincts, elles doivent gérer une matrice de permissions de plus en plus complexe. Les outils de sécurité traditionnels n’ont jamais été conçus pour des interactions continues et autonomes entre machines. Les quelques solutions qui s’en rapprochent, telles que les contrôles d’accès au niveau de l’index à grain fin de Splunk, s’adressent encore principalement aux opérateurs humains. Cette lacune expose les systèmes basés sur des agents au partage involontaire de données, à l’escalade des privilèges et à des comportements erronés entre agents.
Les dirigeants devraient examiner de près la manière dont leurs entreprises adoptent les MCP et les domaines dans lesquels la gouvernance doit évoluer. L’agilité et la rapidité d’intégration sont précieuses, mais aucune ne doit l’emporter sur le coût de la perte de contrôle des systèmes internes. Les entreprises les plus résilientes mettront en œuvre des autorisations par couches, vérifieront l’accès de chaque agent et réévalueront continuellement les risques à mesure que les systèmes deviennent de plus en plus interconnectés. Les équipes dirigeantes doivent s’assurer que leurs unités de sécurité et d’ingénierie s’alignent sur cet objectif, en équilibrant la vitesse d’innovation et le contrôle de l’exposition.
Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.
Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.
La responsabilité dans les flux de travail pilotés par l’IA est ambiguë
Les agents d’IA sont désormais totalement intégrés dans les opérations commerciales quotidiennes. Ils assistent les équipes de service à la clientèle, traitent les transactions et gèrent même certaines parties des flux de travail d’authentification. Ce qui impliquait autrefois une ligne directe entre un utilisateur, un système et une supervision humaine enregistrée comprend désormais plusieurs agents agissant selon une logique indépendante. Cela crée une certaine confusion au niveau de la responsabilité. Jon Aniano, vice-président chargé des produits et des applications CRM chez Zendesk, explique que la responsabilité devient difficile à assumer lorsqu’un humain demande à une IA d’agir et que celle-ci prend la mauvaise décision. Dans ce cas, il n’est pas évident de déterminer qui est responsable, l’humain, l’IA ou le modèle de gouvernance de l’entreprise.
Dans les plateformes de service à la clientèle, par exemple, l’efficacité induite par l’IA s’est étendue au-delà de ce que la plupart des entreprises avaient prévu. Si cela permet d’améliorer les temps de réponse et l’expérience des utilisateurs, cela introduit également des risques complexes. Les erreurs d’authentification, l’exposition des données ou les erreurs d’autorisation peuvent rapidement s’aggraver en l’absence de sécurités claires. Zendesk atténue ce risque en appliquant des portées d’accès strictes et des actions basées sur l’API explicitement sanctionnées. Toutefois, ces mesures dépendent de la configuration humaine et de la discipline politique, et non de normes techniques universellement acceptées. Cette lacune met en évidence le besoin urgent d’un cadre global qui définisse la responsabilité dans les activités hybrides entre l’homme et l’IA.
Les dirigeants doivent reconnaître que les lacunes en matière de responsabilité ne sont pas seulement des problèmes opérationnels, elles représentent des risques de gouvernance et de conformité. À mesure que l’IA prend en charge les flux d’authentification et de prise de décision, les équipes dirigeantes doivent investir dans la traçabilité. Chaque action de l’IA doit être enregistrée, attribuable et vérifiable en temps réel. Pour les industries liées à une réglementation lourde, comme la finance et la santé, le maintien d’une vérification humaine partielle reste essentiel jusqu’à ce que les normes techniques arrivent à maturité. La confiance dans l’automatisation de l’IA dépendra de la transparence, et cette confiance doit être construite délibérément par le biais d’une politique, d’une documentation et d’une surveillance continue.
Les entreprises restent prudentes quant à l’autorisation complète de l’IA autonome
L’automatisation complète reste l’objectif de nombreuses organisations, mais l’aisance avec la prise de décision autonome est encore limitée. La plupart des entreprises continuent de s’appuyer sur la supervision humaine pour valider les actions pilotées par l’IA. La crainte de conséquences involontaires, en particulier dans les systèmes de production ou les environnements réglementés, retient les entreprises. Spiros Xanthos, fondateur et PDG de Resolve AI, a reconnu que si les agents autonomes peuvent éventuellement surpasser les humains en termes de confiance et de précision, les entreprises ne sont pas prêtes à déléguer le contrôle total. Resolve AI expérimente elle-même des « autorisations permanentes » limitées pour des tâches à faible risque, telles que l’assistance au codage, où les résultats peuvent être examinés en toute sécurité.
La surveillance humaine garantit que toute action pilotée par l’IA peut être vérifiée avant qu’elle n’ait un impact sur les systèmes critiques. Cette retenue délibérée ralentit l’adoption mais maintient la stabilité des opérations. Même parmi les entreprises désireuses d’innover, l’autonomie totale de l’IA est considérée comme quelque chose à développer progressivement. Le défi consiste à accroître la confiance sans compromettre la sécurité ou la conformité. Au fur et à mesure que la confiance grandit grâce à des déploiements contrôlés, les autorisations permanentes peuvent être étendues, mais seulement après une validation cohérente de la fiabilité et de la prévisibilité du comportement.
Pour les dirigeants, le chemin vers une plus grande autonomie de l’IA devrait être échelonné, vérifié et continuellement contrôlé. L’élaboration de normes internes pour les niveaux de risque – de « sans danger pour l’automatisation » à « nécessitant une validation humaine » – aidera les entreprises à évoluer de manière responsable. Cette approche progressive renforce la confiance en interne et en externe. Les dirigeants devraient encourager les scénarios d’essai qui combinent efficacité et sécurité, en permettant aux équipes d’affiner les contrôles avant d’étendre l’autonomie. La patience stratégique est ici une force ; elle préserve l’intégrité opérationnelle tout en positionnant l’entreprise pour une intégration durable et à long terme de l’IA.
Les outils de sécurité existants fournissent des mesures provisoires pour gérer et sécuriser les activités des agents d’IA
Les entreprises n’ont pas besoin d’attendre une nouvelle génération de cadres de sécurité pour commencer à traiter les risques liés aux agents d’IA. Les outils existants, lorsqu’ils sont affinés et correctement configurés, offrent déjà une protection transitoire. Spiros Xanthos, fondateur et PDG de Resolve AI, a cité les contrôles d’accès au niveau de l’index à grain fin de Splunk comme exemple d’outil pouvant être adapté à la gouvernance au niveau de l’agent. Ces contrôles fournissent des autorisations d’accès segmentées qui limitent ce avec quoi chaque agent peut interagir. Jon Aniano, vice-président chargé des produits et des applications CRM chez Zendesk, a ajouté que Zendesk suivait une voie structurée et prudente, en utilisant des appels API conçus de manière déclarative qui définissent explicitement les actions qu’un agent peut effectuer. Cela garantit que chaque expansion des capacités de l’IA est délibérée et validée par une supervision humaine.
Cette approche contrôlée n’élimine pas les risques, mais elle les maintient dans des limites gérables pendant que les normes et les modèles de gouvernance des agents mûrissent. L’objectif n’est pas de ralentir l’innovation en matière d’IA, mais de s’assurer qu’elle fonctionne dans le cadre de paramètres transparents. Les entreprises peuvent appliquer aux identités des agents la même précision que celle qu’elles utilisent dans la gestion traditionnelle des identités, en définissant des rôles, des champs d’application et des seuils d’approbation pour chaque interaction qu’un agent effectue dans des environnements de production.
Pour les dirigeants, l’accent doit être mis sur l’équilibre, l’utilisation efficace des technologies existantes tout en investissant dans des mécanismes de contrôle évolutifs. Ces outils provisoires représentent le pont entre la gouvernance fragmentée d’aujourd’hui et les cadres normalisés de demain. Les équipes dirigeantes devraient insister sur les audits réguliers, l’enregistrement des événements et la télémétrie qui permettent de retracer le comportement des agents à chaque étape. Le déploiement progressif, associé à des tests formels, permet aux équipes de prendre confiance dans la posture de sécurité avant d’étendre l’autorité des agents. L’adoption de l’IA va continuer à s’accélérer, mais les organisations qui combinent vitesse et contrôle discipliné seront celles qui maintiendront la confiance et la résilience à long terme.
Principaux enseignements pour les dirigeants
- Les agents d’IA se développent plus rapidement que la sécurité des entreprises ne peut s’adapter : Les agents d’IA d’entreprise détiennent désormais un accès au système plus profond que n’importe quel logiciel antérieur, ce qui crée de nouvelles vulnérabilités majeures. Les dirigeants devraient investir dans des cadres de sécurité adaptatifs qui tiennent compte des interactions autonomes et non humaines avant que l’exposition ne s’étende.
- La commodité du MCP crée de graves lacunes en matière de contrôle : Le protocole de contexte de modèle (MCP) accélère l’intégration mais sacrifie la discipline d’accès. Les dirigeants doivent trouver un équilibre entre rapidité et gouvernance, en appliquant des autorisations par couches et une surveillance continue afin de limiter l’exposition involontaire du système.
- La responsabilité dans les actions pilotées par l’IA n’est pas définie : À mesure que les systèmes d’IA prennent des décisions indépendantes, la responsabilité devient floue entre l’homme et la machine. Les dirigeants doivent imposer des mécanismes transparents de journalisation, de traçabilité et d’audit afin de maintenir la conformité et d’attribuer une responsabilité claire.
- Les entreprises restent prudentes quant à l’automatisation complète : La plupart des organisations s’appuient encore sur la surveillance humaine, en particulier pour les décisions à haut risque. Les dirigeants devraient procéder avec prudence à l’autonomisation de l’IA, en la testant d’abord dans les domaines à faible risque, tout en renforçant le contrôle humain pour protéger les opérations essentielles.
- Les outils existants peuvent stabiliser la sécurité dans l’intervalle : Les technologies actuelles telles que Splunk et les contrôles d’API déclaratifs peuvent aider à gérer l’accès à l’IA jusqu’à ce que de nouvelles normes arrivent à maturité. Les dirigeants doivent utiliser ces outils de manière stratégique, en auditant régulièrement le comportement des agents et en n’élargissant les autorisations qu’après avoir prouvé leur fiabilité.
Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.
Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.


