L’IA agentique nécessite de passer à des approches de sécurité comportementales et automatisées.
Nous assistons à un changement fondamental dans la manière dont la sécurité fonctionne à l’ère de l’intelligence artificielle. Il ne s’agit plus de défendre un périmètre, mais de comprendre les comportements. L’IA agentique ne se contente pas de générer du contenu comme le fait l’IA générative traditionnelle. Elle agit de manière autonome. Elle prend des décisions et exécute des tâches de son propre chef, sans demander la permission à chaque fois. Cela s’accompagne d’un profil de risque complètement différent.
Gee Rittenhouse, vice-président des services de sécurité chez AWS, l’a dit clairement : ces agents d’IA ressemblent et se comportent beaucoup comme des initiés humains du point de vue de la sécurité. Cela signifie qu’en cas de problème, les dommages peuvent survenir rapidement et de manière imprévisible. Les limites de ces agents ne se situent pas à l’extérieur de vos systèmes. Elles sont profondément enfouies dans les applications elles-mêmes. Le raisonnement conventionnel centré sur le pare-feu ne suffit donc plus.
Les équipes de sécurité doivent surveiller ce que font ces agents. Pour cela, il faut passer à l’observabilité comportementale, suivre ce qui est normal, repérer ce qui dévie et agir rapidement. Les systèmes de sécurité doivent évoluer en temps réel. La surveillance doit être continue et adaptative. Il ne s’agit pas de bloquer les menaces connues, mais de repérer les menaces inconnues au fur et à mesure qu’elles se présentent.
L’IA agentique nous oblige à penser plus vite et à voir plus loin. Elle ne suit pas de règles prévisibles, et cette imprévisibilité exige des systèmes plus intelligents, qui utilisent la détection d’anomalies et des informations en temps réel pour réagir avant que le mal ne soit fait. C’est là que l’IA aide la sécurité à évoluer aussi rapidement que les menaces. Il ne s’agit pas d’un mouvement défensif, mais d’un moyen de garder une longueur d’avance.
Renforcer les bases traditionnelles de la sécurité dans un contexte d’autonomie accrue des machines
Certains principes fondamentaux de la sécurité ne changent pas. Gestion de l’identité. Le moindre privilège. Ils sont toujours au cœur de la sécurité. Mais voici la différence aujourd’hui : lorsque des agents autonomes fonctionnent sans aucun humain dans la boucle, un petit écart dans ces principes de base peut se transformer en un gros problème très rapidement.
Amy Herzog, RSSI d’AWS, a fait valoir un argument de poids. Si vous ne respectez pas les règles de base, les conséquences se feront sentir très rapidement. Les agents fonctionnent à la vitesse d’une machine. Si un justificatif d’identité est trop large ou si l’accès n’est pas correctement restreint, les agents n’hésiteront pas, ils agiront immédiatement. Et si cette action est erronée, elle peut causer des dommages en quelques secondes.
Ce qu’il faut, c’est un contrôle plus strict. Des informations d’identification de courte durée. Des droits d’accès clairement définis. Des privilèges minimaux. Ces éléments ne sont pas négociables dans les environnements où les décisions sont prises par des logiciels et non par des humains. Les contrôles de sécurité doivent être rapides, légers et intégrés dans l’architecture du système dès le premier jour.
Les dirigeants doivent réfléchir à la rapidité avec laquelle leurs systèmes peuvent détecter les abus, non seulement de la part des personnes, mais aussi de la part de fonctions autonomes qui se comportent selon la logique et non le jugement. La vitesse fonctionne dans les deux sens. Si vous ne pouvez pas suivre les systèmes que vous avez déployés, vous avez déjà perdu le rythme.
Il ne s’agit pas de revenir aux fondamentaux. Il s’agit de les renforcer avec précision. Dans un monde régi par les actions de l’IA, le seul moyen de donner à votre organisation la liberté d’avancer rapidement, sans laisser la porte de derrière ouverte, est de bien maîtriser les fondamentaux.
Définir les limites de l’autonomie et instaurer la confiance dans les systèmes
Les systèmes agentiques agissent sans attendre d’instructions. C’est leur raison d’être. Mais donner de l’autonomie ne signifie pas renoncer au contrôle. Le défi n’est pas d’empêcher l’agent d’effectuer des tâches, mais de définir exactement quelles sont ces tâches et quelles sont les limites à ne pas franchir.
Neha Rungta, directrice de la science appliquée chez AWS, a clairement exposé le problème. Si vous confiez à un agent autonome le soin de gérer les remboursements des clients, combien de remboursements, et pour quel montant, doit-il être autorisé à traiter sans surveillance ? $100 ? $500 ? Une fois que vous avez établi cette réponse, vous avez défini les limites opérationnelles de l’agent. C’est ainsi que vous créez la confiance, non pas en espérant qu’il reste dans le rang, mais en lui donnant des limites claires et en les faisant respecter dans le système.
C’est là qu’interviennent des outils tels que le raisonnement automatisé. Il s’agit de systèmes qui utilisent les mathématiques, et non la spéculation, pour prouver que l’agent ne peut pas entreprendre d’actions non autorisées. Ce n’est pas subjectif. Vous pouvez prouver les résultats de sécurité à l’aide de la logique formelle, ce qui signifie que vous pouvez faire confiance aux décisions du système sans avoir à deviner.
Cette approche est déjà mise en œuvre. Amazon a lancé l’agent de sécurité AWS pour aider les concepteurs à intégrer les contrôles de sécurité directement dans le code de l’application, dès le début. Cela signifie que les restrictions, les informations d’identification et les autorisations sont codées en dur dans la conception du système, et non pas ajoutées par la suite.
Pour les dirigeants, il ne s’agit pas seulement d’une caractéristique technique, mais d’une exigence de gouvernance. Vous devez être certain que l’automatisation que vous déployez ne dérivera pas vers un comportement dangereux, et que votre équipe de sécurité ne sera pas obligée de traquer les violations de la conformité après coup. Les limites doivent être claires dès le départ. Et la confiance doit être intégrée, et non présumée.
Faire passer les professionnels de la sécurité du statut de consommateurs d’IA à celui de bâtisseurs d’IA
En matière de cybersécurité, la tendance est à l’utilisation de l’IA comme outil de commodité. Demander des résumés à un chatbot, parcourir quelques journaux, c’est utile, mais c’est réactif. Cela ne suffit plus. Le passage à des agents autonomes n’est pas seulement une mise à niveau technologique, c’est une redéfinition de la façon dont les agents de cybersécurité sont utilisés. leadership en matière de cybersécurité de la cybersécurité.
Aujourd’hui, la plupart des équipes de sécurité fonctionnent encore comme des consommateurs de la technologie de l’IA. Elles utilisent des assistants et des systèmes automatisés dans un rôle d’aide. Mais Hart Rossman, vice-président de l’Office of the CISO d’AWS, a mis en évidence la véritable opportunité : nous devons construire. Cela signifie qu’il faut créer des agents de sécurité adaptés à des environnements spécifiques, et non pas s’appuyer sur des agents génériques.
C’est ce que fait déjà l’agent de réponse aux incidents de sécurité d’AWS. Il identifie les preuves, rassemble les informations sur les systèmes et suggère les prochaines étapes. Le temps d’investigation passe ainsi de plusieurs jours à quelques minutes. C’est important. Cela réduit le temps d’exposition. Il accélère la réponse. Il rend votre organisation plus difficile à frapper, et beaucoup plus rapide à récupérer.
Les dirigeants doivent penser au-delà des tableaux de bord et des alertes manuelles. L’objectif est de ne pas intervenir, d’être proactif et continu. Les flux de travail prédéfinis ne doivent pas guider votre réponse aux incidents. Les agents doivent le faire en temps réel, en s’adaptant à l’évolution de la menace.
Si vos outils de sécurité ne peuvent pas fonctionner de manière intelligente et indépendante, ils prennent du retard. La voie à suivre ne consiste pas à déléguer la responsabilité à l’IA, mais à remodeler vos équipes pour qu’elles créent des systèmes qui fonctionnent sous pression. C’est la différence entre le respect de la conformité de base et la sécurisation d’une entreprise construite sur la vitesse et l’échelle.
Renforcer les capacités défensives grâce à l’intégration avancée de l’IA
On s’inquiète beaucoup du fait que les attaquants utilisent l’IA pour étendre les menaces. Cette inquiétude est justifiée. Mais nous devrions nous concentrer sur l’opportunité la plus importante, à savoir le fait que l’IA, en particulier les systèmes agentiques, donne aux défenseurs plus de rapidité, plus de contexte et une visibilité plus large que jamais. L’avantage se déplace du côté de la défense.
Selon Gee Rittenhouse, vice-président des services de sécurité chez AWS, les systèmes d’IA tels que les grands modèles de langage (LLM) traitent les données de sécurité à une échelle que les humains ne peuvent tout simplement pas égaler. Ces modèles peuvent conserver le contexte historique de millions d’événements, suivre l’évolution des modèles dans le temps et agir sur les signaux à la vitesse de la machine. Il ne s’agit pas seulement d’automatisation, mais d’exécution intelligente.
Cela signifie que les équipes de sécurité ne sont plus confinées à des tableaux de bord fragmentés ou à un triage réactif. L’IA peut consolider d’énormes ensembles de données, détecter les menaces à un stade précoce et déclencher automatiquement des mesures défensives. Lorsqu’ils sont correctement intégrés, ces systèmes réduisent le bruit et donnent la priorité aux impacts importants. Il en résulte des réponses plus étroites et plus rapides et moins d’angles morts.
Pour les dirigeants, la conclusion est la suivante : L’IA n’est pas optionnelle dans la sécurité moderne. Si vous dépendez de flux de travail manuels ou d’une architecture existante pour répondre aux menaces dynamiques, l’écart entre le risque et la réponse ne cessera de se creuser. L’IA agentique comble ce fossé. Elle fonctionne en continu, évolue avec l’infrastructure et s’adapte aux nouvelles surfaces de menaces sans avoir à se réorganiser en permanence.
Et si les attaquants utilisent l’IA, ils n’ont généralement pas accès au même niveau d’infrastructure, d’intelligence ou de connaissance du système que les défenseurs. Si vous exploitez correctement les outils, les chances penchent en votre faveur. Il ne s’agit pas d’attendre qu’une attaque se produise, mais de concevoir un système qui la détecte avant qu’elle ne s’aggrave. C’est ainsi que les menaces complexes pilotées par l’IA cessent d’être perturbatrices et commencent à être gérables.
Principaux enseignements pour les dirigeants
- Passer à une sécurité comportementale et automatisée : Les dirigeants doivent donner la priorité à l’analyse comportementale et à l’observabilité pour surveiller efficacement les agents autonomes, car les défenses traditionnelles basées sur le périmètre ne permettent plus de faire face aux risques de l’IA agentique qui s’apparentent à ceux d’un initié.
- Renforcer les contrôles fondamentaux des identités et des privilèges : Les équipes dirigeantes doivent vérifier et renforcer les cadres d’identité et les limites des privilèges, en veillant à ce que les identifiants soient de courte durée et étroitement délimités afin d’éviter les erreurs à grande échelle dans les environnements où la vitesse de la machine est élevée.
- Définir avec précision les limites de l’autonomie : Les organisations devraient intégrer des limites opérationnelles définies et des mécanismes de confiance dans les systèmes autonomes afin de réduire le risque d’actions involontaires et de favoriser l’auditabilité à grande échelle.
- Construisez une sécurité basée sur l’IA, ne vous contentez pas de la consommer : Les responsables de la sécurité devraient investir dans la création d’outils intelligents, basés sur des agents et adaptés à leurs environnements, en passant d’une utilisation réactive de l’IA à des solutions proactives et intégrées qui réduisent considérablement le temps de réponse aux incidents.
- Utiliser l’IA pour renforcer le dispositif de défense : Les dirigeants doivent considérer l’IA comme un multiplicateur de force pour la défense, en déployant des LLM et des agents autonomes qui surveillent, contextualisent et agissent sur les menaces en temps réel afin de réduire l’exposition et les angles morts.


