Les agents d’IA introduisent des vulnérabilités sans précédent en matière de cybersécurité
Nous assistons actuellement à la transition de l’intelligence artificielle d’un rôle d’assistant à celui d’acteur opérationnel. L’IA ne se contente plus de faire des suggestions, elle exécute des commandes, déploie des mises à jour, exécute des configurations et remodèle des systèmes de production. C’est beaucoup de contrôle à confier à un logiciel. Pourtant, dans de nombreuses organisations, les agents d’IA se voient confier ces pouvoirs avec très peu de supervision. C’est un problème.
La vérité est simple : les entreprises évoluent plus vite que leurs cadres de sécurité ne peuvent le faire. Et à mesure que les équipes se précipitent vers la mise en œuvre de l’IA, elles introduisent de nouvelles surfaces d’attaque. Les attaques par injection d’invites, où des instructions malveillantes sont cachées dans les entrées utilisateur, deviennent un réel problème. Elles peuvent déclencher des flux de travail non autorisés ou une escalade des privilèges sans être détectées. Un autre problème est celui des attaques par temps de réponse, où le temps est manipulé pour extraire ou faire fuir des données sensibles.
Alan Radford, stratège mondial chez One Identity, prévient que la première faille de sécurité à fort impact provenant d’une interface d’IA n’est pas seulement à venir. Elle est imminente. Il souligne que de nombreuses organisations ont autorisé des agents d’IA à effectuer des changements de manière autonome, sans mettre en place les mesures de protection nécessaires. C’est une tempête parfaite pour les cybercriminels qui cherchent à obtenir facilement un accès de haut niveau.
Si votre architecture de sécurité actuelle ne tient pas compte des agents d’IA dotés de privilèges élevés et agissant de manière indépendante, vous êtes exposé.
Il ne s’agit pas d’un appel à la peur, mais d’un signal d’alarme pour que vous preniez au sérieux la gouvernance avant que quelque chose ne vienne perturber votre système en temps réel.
Les priorités en matière de sécurité doivent passer de la seule protection des identités humaines à la sécurisation des identités internes des machines et des agents de l’IA.
Les DSI et les RSSI ont passé des années à ériger des murs autour des identités des utilisateurs humains. Les pare-feu, l’authentification multifactorielle, la gestion des informations d’identification, tout cela visait à contrôler l’accès des personnes. Aujourd’hui, le paysage a changé. Les systèmes d’IA génèrent leurs propres comptes, exécutent des services et interagissent avec les infrastructures critiques. Il ne s’agit pas d’identités humaines, mais elles ont le même poids, et souvent beaucoup plus de risques. Si vous ne les surveillez pas de près, quelqu’un d’autre le fera.
La plupart des entreprises se concentrent encore sur « qui » utilise l’IA. Mais il est plus judicieux de se concentrer sur « ce que » l’IA est en train de devenir. Ces agents opèrent souvent avec des privilèges élevés et une surveillance minimale. Ils prennent des décisions. Ces décisions ne peuvent pas simplement apparaître dans vos journaux ; elles doivent être tracées jusqu’à un déclencheur clair, qu’il s’agisse d’une directive humaine, d’un processus système ou d’une autre IA. Sans cette traçabilité, l’obligation de rendre des comptes s’effondre.
Radford explique bien ce prochain changement. Les entreprises doivent aller au-delà de la gouvernance des utilisateurs et commencer à gouverner les identités au sein de l’IA elle-même, les agents, les flux de travail et les arbres de décision. Cela signifie qu’il faut créer des pistes d’audit claires, enregistrer chaque action et attribuer la propriété de chaque décision autonome. En bref : si une IA fait quelque chose, vous devez savoir qui ou quoi lui a demandé de le faire, et si ce déclencheur répond à vos normes de gouvernance.
Il s’agit d’un élément fondamental. Il ne s’agit pas de cocher des cases pour la conformité. Il s’agit de maintenir le contrôle sur vos propres systèmes dans un environnement où les logiciels commencent à penser, à décider et à agir. Les organisations qui construisent ces cadres d’identité IA maintenant sont celles qui resteront en tête, techniquement et stratégiquement.
Une surveillance continue de la chaîne d’approvisionnement, fondée sur des preuves, devient essentielle.
La plupart des entreprises comprennent leurs systèmes. Moins nombreuses sont celles qui comprennent leur chaîne d’approvisionnement. Et c’est là que les fissures commencent à apparaître. Les fournisseurs tiers figurent désormais parmi les sources de violation de la sécurité qui connaissent la croissance la plus rapide, non pas parce que les partenaires sont mal intentionnés, mais parce que les attaquants savent que c’est là que la vérification tend à être la plus faible.
Les régulateurs le constatent également. Ils ne se contentent plus d’examens annuels des accès ou de rapports statiques. La norme évolue vers la vérification en temps réel, la preuve de qui a accédé à quoi, quand et sous l’autorité de qui. L’identité est devenue une responsabilité partagée entre vous et vos fournisseurs. Si un outil tiers a accès à vos systèmes, vous êtes toujours responsable de son comportement.
Stuart Sharp, vice-président de la stratégie des produits chez One Identity, a clairement énoncé cette évolution : « La prochaine évolution de la gouvernance sera basée sur la preuve. Cela signifie qu’il ne suffit pas de faire confiance à vos fournisseurs, vous devez constamment valider leur accès et appliquer des contrôles actifs et non passifs. Les conseils d’administration n’attendront pas des mois pour obtenir des réponses. Les régulateurs non plus.
Il ne s’agit pas de supprimer le risque lié aux tiers. Il s’agit de le contrôler de manière visible et continue. L’identité en tant que plan de contrôle partagé, entre vous et chaque fournisseur, permet un suivi en temps réel des décisions d’accès et des réponses immédiates. Si quelque chose d’inhabituel se produit, vous devez être en mesure de le voir et de l’arrêter sans délai.
Pour les dirigeants, cela modifie les discussions sur les achats. Lors de l’évaluation d’un nouveau fournisseur ou partenaire, la question n’est plus seulement « Qu’est-ce que cette solution offre ? ». Il s’agit plutôt de savoir à quoi cette solution donne accès et si nous pouvons prouver en permanence qu’elle fait ce qu’il faut. La mise en œuvre de cette norme réduit l’exposition et renforce la confiance de toutes les parties.
Les identités numériques non humaines sont sur le point de devenir une menace interne importante
Des comptes non humains gèrent désormais une grande partie de votre infrastructure, même si vous n’y pensez jamais. Il s’agit notamment des robots, des scripts, des comptes de service, des clés API et, désormais, des agents d’intelligence artificielle. Sur de nombreux réseaux d’entreprise, ils sont 50 fois plus nombreux que les employés. Cet écart est important. Alors que les entreprises disposent souvent d’une solide discipline en matière de contrôle des utilisateurs humains, les identités non humaines ont tendance à être créées, utilisées et oubliées.
C’est un handicap. Ces identités continuent souvent d’exister longtemps après la fin de leur objectif initial, en dérivant vers l’informatique parallèle. Nombre d’entre elles restent surprivilégiées et invisibles aux audits standard. Si elles sont compromises, elles permettent aux attaquants d’accéder directement aux systèmes critiques sans qu’aucun modèle de comportement humain ne signale une activité suspecte.
Robert Kraczek, stratège mondial chez One Identity, l’a bien compris : « Nous avons atteint le point où le plus grand risque d’intrusion n’est pas lié à l’identité de l’employé. Cela modifie l’orientation des programmes de lutte contre les menaces internes. Il ne s’agit plus seulement de surveiller les employés, mais de suivre chaque compte capable d’effectuer des actions automatisées dans l’ensemble de votre pile.
Pour reprendre le contrôle, les équipes chargées de l’identité doivent appliquer à ces comptes la même rigueur qu’aux utilisateurs. Cela inclut la création de chaînes de propriété pour chaque identité non humaine, la mise en place de dates d’expiration, l’application de révisions des autorisations et la mise en place de protocoles de désactivation automatisés. Les capacités d’arrêt d’urgence doivent également être standard, et non optionnelles.
Les dirigeants doivent reconnaître que cela fait partie de la gouvernance de base. À mesure que les systèmes d’IA s’étendent et que les couches d’automatisation s’approfondissent, la sécurisation des accès non humains n’est pas un ajout, c’est une exigence opérationnelle. Vous n’avez pas besoin de tout contrôler manuellement. Mais vous devez mettre en place des politiques qui garantissent que ces comptes ne persistent pas sans être contrôlés. Ce travail commence dès maintenant.
L’empoisonnement des modèles d’IA représente une menace croissante pour l’intégrité des systèmes d’IA
Alors que l’IA s’intègre dans de plus en plus de processus d’entreprise, de l’analyse à la prise de décision, il existe une forme croissante d’attaque qui ne cible pas directement l’infrastructure ou les utilisateurs. Elle modifie le comportement en corrompant les modèles d’IA eux-mêmes. C’est ce que l’on appelle l’empoisonnement des modèles. Elle se produit discrètement, pendant la formation ou l’ajustement, et peut fausser les résultats sans déclencher d’alertes.
Ce qui rend ce phénomène dangereux, c’est sa subtilité. Un modèle empoisonné peut encore fonctionner normalement en surface. Cependant, en interne, les décisions peuvent devenir biaisées ou stratégiquement erronées, sur la base d’entrées manipulées par les attaquants. Pour les systèmes qui automatisent des processus de grande valeur, ce risque est sérieux. Il compromet la confiance dans les résultats sans provoquer de défaillance technique évidente.
Nicolas Fort, directeur de la gestion des produits chez One Identity, a souligné que l’assurance de l’IA est désormais indissociable de l’assurance de l’identité. Chaque événement de formation, invite, changement de politique ou mise à jour de configuration doit être authentifié et enregistré. Savoir qui a interagi avec votre modèle, quand et sous quelle autorité, devient aussi important que la précision du modèle.
Les dirigeants doivent considérer l’intégrité des modèles comme un risque commercial essentiel, et pas seulement comme un risque technique. Si vos systèmes d’IA apprennent à partir d’ensembles de données internes, ces pipelines doivent être sécurisés. Les personnes qui modifient les modèles, qu’il s’agisse de développeurs ou de scientifiques des données, doivent opérer à travers des identités traçables et des environnements gouvernés.
Cela est important non seulement pour la prévention interne, mais aussi pour démontrer la résilience de l’entreprise face à la pression réglementaire. Les décideurs doivent pouvoir répondre aux questions suivantes : qui a influencé ce résultat, quelles données l’ont façonné et quand a-t-il été vérifié pour la dernière fois ? Si ces réponses ne sont pas déjà disponibles dans vos systèmes, elles doivent l’être.
Les portefeuilles d’identité numérique de l’UE vont favoriser l’expansion des systèmes d’identité fédérés
L’Europe se dote d’une nouvelle norme en matière d’identité numérique. Avec eIDAS 2.0, les citoyens de l’UE disposeront de portefeuilles d’identité numérique contenant des références vérifiées utilisables dans tous les secteurs d’activité et au-delà des frontières. Cela modifie la manière dont les entreprises authentifient les personnes et gèrent les identités externes dans leur environnement.
Ces portefeuilles visent à rationaliser l’accès tout en maintenant un haut niveau de confiance. À mesure que l’adoption s’accélère, les utilisateurs s’attendront à des expériences de connexion transparentes à l’aide de leurs identifiants numériques certifiés par le gouvernement. Mais pour les entreprises, l’acceptation de ces identifiants n’est pas seulement une question de compatibilité, elle nécessite l’adaptation des politiques de sécurité existantes pour intégrer des sources de confiance externes tout en conservant une gouvernance interne.
Stuart Sharp, vice-président de la stratégie des produits chez One Identity, a déclaré que le passage à une identité fédérée pilotée par les citoyens est en cours. D’ici 2026, il s’attend à ce que les portefeuilles d’identité numérique soient largement utilisés dans toute l’UE. Les entreprises devront traiter ces identités externes comme des intrants de première classe, sans relâcher le contrôle sur qui a accès à quoi.
Si votre organisation opère dans ou avec les marchés européens, cela n’est pas facultatif. Cela signifie que les systèmes doivent être prêts à reconnaître et à valider les informations d’identification vérifiées de tiers, à appliquer les mêmes politiques d’accès que celles que vous utilisez en interne et à enregistrer chaque interaction à des fins d’audit. Les entreprises qui attendent se retrouveront en situation de non-conformité et en décalage avec les attentes des utilisateurs.
Pour garder une longueur d’avance, commencez par auditer vos plates-formes d’identité : peuvent-elles traiter de multiples sources d’identité avec une application en temps réel des politiques ? Si ce n’est pas le cas, il est temps de procéder à une mise à niveau. L’identité numérique se mondialise. La décision des dirigeants est de savoir si vos systèmes peuvent évoluer avec elle.
L’avenir de la cybersécurité exige une approche centrée sur l’identité et axée sur la résilience et les contrôles fondamentaux.
La direction que prend la cybersécurité n’est pas seulement technique, elle est structurelle. À mesure que les menaces évoluent et que l’IA s’intègre de plus en plus dans les opérations, les entreprises doivent repenser les fondamentaux. L’identité doit être au centre de cette refonte. Pas seulement pour le contrôle d’accès, mais comme base de la résilience, de la traçabilité et de la gouvernance à long terme.
Les dirigeants de One Identity prévoient clairement cette évolution. Les organisations dépasseront les méthodes de récupération réactives et intégreront la résilience directement dans leurs systèmes. Cela signifie qu’il faut anticiper les perturbations, et pas seulement y répondre. Cela signifie également qu’il faut renforcer les contrôles sur qui peut accéder à quoi et, surtout, s’assurer que ces autorisations sont suffisamment intelligentes pour s’adapter en temps réel.
La gouvernance de l’accès aux données fait déjà l’objet d’un regain d’attention. Les entreprises améliorent la visibilité sur les cycles de vie des identités, automatisent les droits et utilisent des informations comportementales pour détecter et limiter les actions inhabituelles. Ces systèmes ne s’appuieront pas uniquement sur des règles statiques. Ils apprendront, évalueront et réagiront de manière dynamique afin de réduire les risques sans ralentir l’activité de l’entreprise.
Une autre évolution attendue est celle de ce que One Identity décrit comme des « systèmes immunitaires basés sur l’IA pour l’identité ». Ces systèmes iront au-delà de la surveillance traditionnelle basée sur les alertes. Ils offriront des environnements de sécurité adaptatifs capables de détecter les comportements anormaux de l’identité et d’arrêter les menaces avant qu’elles ne causent des dommages. Il ne s’agit pas d’idées expérimentales, elles sont en cours d’élaboration.
Pour les équipes dirigeantes, la conclusion est claire : la stratégie de cybersécurité ne peut plus se limiter à la protection des points d’extrémité ou aux pare-feu. La posture de sécurité la plus efficace commence par l’identité et se renforce par la discipline, l’automatisation et la vérification continue.
Pour être à la pointe dans cet environnement, donnez la priorité aux mises à niveau de l’infrastructure d’identité. Utilisez cette base pour soutenir à la fois l’innovation et la conformité. Les entreprises qui y parviennent ne se contentent pas de sécuriser les systèmes, elles renforcent leur capacité à évoluer avec contrôle, quelles que soient les difficultés qui se présenteront à elles par la suite.
Récapitulation
L’IA n’attend pas que les équipes de sécurité la rattrapent, et les attaquants non plus. Le paysage de l’identité s’étend rapidement. Les agents, les modèles, les connexions tierces et les comptes non humains sont désormais des composants essentiels de l’infrastructure de l’entreprise. Ils sont puissants. Ils sont évolutifs. Et s’ils ne sont pas contrôlés, ils sont dangereux.
Pour les équipes dirigeantes, le message est simple : l’identité n’est plus un simple contrôle. C’est votre fondement. Les systèmes que vous construisez aujourd’hui doivent définir clairement l’identité, appliquer automatiquement la responsabilité et détecter instantanément les écarts. C’est ainsi que vous évoluerez en toute confiance et non en prenant des risques.
Les régulateurs exigeront davantage de preuves. Les partenaires exigeront une transparence en temps réel. Les utilisateurs apporteront leurs propres références. Et comme l’IA devient un acteur de première ligne, la question ne sera pas de savoir si vos systèmes peuvent traiter les décisions, mais s’ils peuvent prouver qui les a prises, sous quelle autorité et avec quels contrôles en place.
Si votre architecture n’est pas en mesure de répondre à cette question aujourd’hui, elle devra le faire bientôt. C’est là que convergent l’entreprise, la technologie et la gouvernance. Dirigez à partir du centre, avec l’identité.


