L’IA introduit de nouveaux vecteurs d’attaque dans le cloud que les défenses traditionnelles ne traitent pas de manière adéquate.

Nous avons dépassé le stade où l’intelligence artificielle peut être traitée comme un logiciel traditionnel. Les défis qu’elle pose en matière de sécurité sont fondamentalement différents et se développent rapidement. Les systèmes qui s’appuient sur des modèles de langage et des prises de décision autonomes ouvrent de nouveaux types de vulnérabilités que les fournisseurs de cloud et les équipes d’entreprise n’avaient pas prévus. Ces vulnérabilités ne sont pas théoriques. Il s’agit de techniques d’attaque actives, à l’état sauvage, qui exploitent les forces mêmes qui font la valeur de l’IA : sa réactivité, sa capacité d’adaptation et son apprentissage continu.

L’IA générative, en particulier, rend la surface des menaces moins prévisible. Nous observons des attaques utilisant ce que l’on appelle l' »injection d’invite » – où les attaquants manipulent les entrées de texte dans les systèmes d’IA d’une manière qui force le système à prendre des mesures nuisibles ou involontaires. Dans le passé, la sécurité consistait principalement à bloquer les accès externes ou à minimiser les erreurs de configuration connues. Aujourd’hui, il s’agit d’empêcher les systèmes d’être trompés par le langage ou les modèles cachés dans les requêtes, des concepts qui ne faisaient pas partie des modèles de menace de la plupart des entreprises il y a cinq ans.

Les adversaires extraient également des modèles d’IA entiers ou empoisonnent les données d’entraînement pour dégrader le comportement du système tout en restant en dessous des seuils de détection. Cela signifie que même les plateformes cloud bien sécurisées sont vulnérables si les systèmes d’IA qui s’y exécutent ne se comportent pas comme prévu. La manipulation basée sur le langage et l’injection de données toxiques n’ont pas besoin d’un vol d’informations d’identification pour causer des dommages. Si vos systèmes existants s’appuient sur l’IA mais utilisent des playbooks de sécurité hérités, vous courez à l’aveuglette dans de nombreux domaines.

Ce qui importe aujourd’hui, c’est que les dirigeants comprennent la forme des menaces actuelles, et non celles d’hier. Le comportement élaboré de l’IA moderne introduit des vecteurs d’attaque complexes qui échappent aux défenses conventionnelles. La réécriture des règles n’est pas facultative, elle est déjà en cours.

La plupart des entreprises ne sont pas préparées à gérer les menaces de sécurité spécifiques à l’IA dans le cloud.

Soyons honnêtes, la plupart des cadres de risque en place aujourd’hui ne sont pas conçus pour l’IA. Interrogez votre entourage, et vous constaterez que l’entreprise moyenne dispose d’une solide documentation pour les actifs cloud et de solides processus de conformité. Mais lorsqu’il s’agit d’IA, ces fondations ne sont pas à la hauteur. Le problème n’est pas un manque d’efforts, mais un manque d’alignement entre le fonctionnement de l’IA et la façon dont les équipes de sécurité actuelles pensent.

L’IA n’obéit pas aux règles traditionnelles des logiciels. Elle apprend, s’adapte et, dans certains cas, agit même sans intervention directe. Ainsi, les stratégies de sécurité basées sur les API, les niveaux d’accès des utilisateurs et les listes de contrôle de cryptage ne permettent pas de contrer les menaces que l’IA fait peser sur les systèmes. Nous avons affaire à des systèmes en évolution rapide, souvent formés sur des ensembles de données massives et non structurées, et déployés à grande échelle, parfois sans supervision complète. Il s’agit là d’une grave lacune.

L’Atlas des risques de l’IA le montre clairement : les entreprises sont à la traîne. Nombre d’entre elles ne disposent pas des cadres nécessaires pour évaluer les vulnérabilités spécifiques à l’IA, telles que les invites adverses, les comportements de modèles non approuvés ou les fuites de données silencieuses provenant d’ensembles d’entraînement surexposés. Pire encore, lorsque les entreprises adoptent l’IA générative ou des systèmes autonomes sans plans de surveillance et de gouvernance définis, elles ouvrent des portes qu’elles ne peuvent pas fermer. Dans cet environnement, même de petites erreurs, comme un manque de clarté dans la propriété du modèle ou une documentation insuffisante, peuvent conduire à des incidents majeurs.

En bref, la vitesse dépasse la compréhension. Et dans les conseils d’administration comme dans les équipes de développement, les hypothèses de sécurité dépassées sont le goulot d’étranglement. Les décideurs doivent favoriser l’adoption de programmes de surveillance des risques spécifiques à l’IA, et ce rapidement. Sinon, la menace n’attendra pas votre prochain cycle d’audit, elle trouvera les faiblesses avant vous.

Les pratiques traditionnelles et passives de gestion des risques sont insuffisantes pour faire face à la nature dynamique des menaces liées à l’IA.

Le rythme d’évolution de l’IA ne correspond pas aux stratégies de risque sur lesquelles la plupart des entreprises s’appuient encore. Audits une fois par an. Des listes de contrôle de conformité liées à des politiques statiques. Examens périodiques de la sécurité. Rien de tout cela ne fonctionne lorsque vos systèmes sont pilotés par des modèles qui se mettent à jour, réagissent à de nouvelles données et prennent des décisions basées sur un raisonnement probabiliste. Le risque lié à l’IA n’est pas passif et ne peut pas être géré par des routines de type « check-the-box ».

Au lieu de cela, nous assistons à un accroissement de la dette de sécurité. Les problèmes s’accumulent tandis que l’IA continue à fonctionner et à se développer dans l’infrastructure. Les menaces ne prennent pas toujours la forme de brèches évidentes. Elles se manifestent subtilement, par des fuites de données d’entraînement par le biais d’invites de chat, par des systèmes se comportant différemment en cas d’entrée indirecte, par des résultats faussés sans être détectés. Et lorsque quelque chose tourne mal, la plupart des organisations doivent reconstruire comment et pourquoi cela s’est produit, parce qu’elles n’ont pas été assez vigilantes en temps réel.

L’Atlas des risques liés à l’IA souligne que les systèmes de gouvernance existants ne parviennent pas à suivre ces changements. L’IA générative, qui crée du contenu ou des décisions sur la base de vastes ensembles de données d’entraînement, est souvent déployée sans surveillance continue. Les injections rapides, par exemple, ne sont généralement pas signalées par les outils conventionnels. Une dépendance excessive à l’égard des systèmes automatisés, en particulier ceux qui n’ont pas de visibilité claire sur la manière dont les décisions sont prises, crée une exposition à long terme qui n’est pas activement mesurée. Ces lacunes sont désormais courantes dans tous les secteurs utilisant des modèles d’IA basés sur le Cloud.

Pour faire face à cette situation, la sécurité doit s’orienter vers une validation continue. Cela signifie qu’il faut surveiller en permanence le comportement des modèles, tester régulièrement les systèmes dans des conditions adverses et définir des processus d’escalade qui n’attendent pas un rapport annuel. Le risque est désormais en temps réel. La direction doit renforcer la visibilité et la responsabilité à tous les niveaux des opérations d’IA, sinon le système continuera à fonctionner d’une manière que personne ne comprendra entièrement, jusqu’à ce qu’il tombe en panne.

Un nouveau modèle d’évaluation des risques liés à l’IA est nécessaire, qui soit proactif, structuré et intégré à l’ensemble des équipes.

Il y a une meilleure façon d’avancer, mais elle filtre tous ceux qui s’accrochent encore à des manuels de jeu dépassés. L’AI Risk Atlas l’expose directement : les organisations ont besoin d’un cadre moderne qui corresponde à l’échelle et à la complexité des systèmes d’IA. Cela signifie qu’il faut catégoriser correctement les risques, attribuer clairement la propriété et surveiller les modèles et les intrants d’une manière à la fois technique et responsable.

Commencez par cartographier vos actifs d’IA en fonction de types de risques spécifiques, d’attaques adverses, d’injection rapide, de résultats non vérifiés, de documentation manquante. Vous ne pouvez pas gérer les risques tant que vous ne savez pas où ils se trouvent. Ensuite, introduisez l’automatisation, oui, mais assurez-vous qu’elle s’accompagne d’une supervision et d’une responsabilité humaines. Des outils tels que ceux de la plateforme open-source Atlas Nexus aident à automatiser la détection et la réponse, mais rien de tout cela ne fonctionne sans une gouvernance claire et un réel suivi.

Il est également essentiel de
briser les silos
. Une seule équipe ne peut pas gérer seule les risques liés à l’IA. Les ingénieurs doivent se coordonner avec les équipes juridiques, de produits et de direction. Les responsables des risques doivent avoir un accès direct aux décisions de modélisation et aux données de formation, et pas seulement à des résumés d’audit simplifiés. Ce type d’intégration favorise l’alignement et garantit que les décisions prises sur les fonctionnalités de l’IA reflètent les priorités organisationnelles plus larges, notamment en matière de responsabilité, d’utilisation éthique et de réputation de la marque.

Les indicateurs doivent également changer. Suivez le comportement des modèles dans les cas extrêmes, la fréquence à laquelle les équipes rouges découvrent des vulnérabilités, l’exhaustivité de votre documentation. Utilisez-les pour guider l’amélioration, et pas seulement le temps de fonctionnement brut ou le volume de production. Le but est d’itérer. Non pas pour geler les progrès, mais pour avancer de manière ciblée. Cette approche traite l’IA comme la force puissante qu’elle est, elle peut apporter une valeur exponentielle, mais elle exige en retour une prise de conscience exponentielle.

Une gestion responsable des risques liés à l’IA est urgente alors que l’IA agentique devient de plus en plus présente dans les systèmes cloud

Nous entrons dans une phase où l’IA n’est plus passive. Les systèmes ne se contentent pas de répondre aux entrées, ils initient des actions, exécutent des tâches sans l’aide de l’homme et se connectent directement à l’infrastructure cloud par le biais d’API. Cette catégorie d’IA, communément appelée IA agentique, est capable d’orchestrer des flux de travail complexes à grande vitesse et à grande échelle. Le potentiel est énorme. Mais les implications en matière de sécurité augmentent tout aussi rapidement.

L’Atlas des risques de l’IA le montre clairement : de nombreuses organisations lancent des systèmes agentiques avant d’avoir établi des limites de risque appropriées. C’est un problème. Lorsque l’IA agit seule, en particulier dans un environnement cloud, même de petites lacunes en matière de gouvernance ou de surveillance peuvent entraîner des défaillances plus larges du système. Ces systèmes ne se contentent pas de produire des résultats, ils déclenchent des décisions commerciales, modifient des données et interagissent avec d’autres services. Sans visibilité en temps réel et sans contrôles d’autorité en place, il s’agit d’une position de risque volatile.

L’automatisation ne résoudra pas ce problème par défaut, cela dépend entièrement de ce que nous définissons, surveillons et autorisons. Les entreprises déploient l’IA autonome plus rapidement qu’elles ne mettent à jour les politiques, les contrôles d’accès et les protocoles d’escalade. Cette déconnexion signifie que certains systèmes prennent des décisions que personne ne peut entièrement tracer ou inverser. Ce n’est pas ainsi que l’on construit la résilience. Vous avez besoin d’une gouvernance qui s’adapte à la même vitesse que les systèmes fonctionnent.

Il y a aussi un problème de personnes. Trop de déploiements impliquent des équipes techniques qui se déplacent rapidement sans alignement interfonctionnel. Le leadership en matière de risques intervient souvent après la construction, voire jamais. Les aspects juridiques, la conformité et la sécurité ne sont pas systématiquement intégrés dans les processus de développement de l’IA agentique. Cela crée des angles morts au moment du lancement et des lacunes encore plus importantes au fur et à mesure que les systèmes évoluent.

Il ne s’agit pas de ralentir l’innovation. Il s’agit d’une mise à l’échelle intentionnelle. Investir dans des cadres et une discipline opérationnelle permet désormais de s’assurer que l’IA se comporte en toute sécurité dans les systèmes, non seulement lors du déploiement initial, mais tout au long de son cycle de vie. Cela signifie des temps de réponse plus rapides, des plans de retour en arrière clairs, une validation continue et une responsabilité définie à chaque niveau. Sans cela, vous faites fonctionner des systèmes accélérés sur la base de règles obsolètes. C’est un risque que la plupart des équipes dirigeantes ne peuvent se permettre d’ignorer.

Faits marquants

  • L’IA crée des failles de sécurité que les défenses traditionnelles ne peuvent pas combler : L’IA générative et agentique expose les environnements cloud à de nouvelles menaces telles que l’injection d’invite, les requêtes adverses et l’extraction de modèles. Les dirigeants doivent moderniser la sécurité pour gérer les modèles d’attaque natifs de l’IA qui contournent les contrôles existants.
  • La plupart des organisations ne disposent pas de cadres de risques spécifiques à l’IA : La conformité au cloud n’équivaut pas à la sécurité de l’IA. Les dirigeants devraient donner la priorité à l’élaboration de modèles de gouvernance adaptés au comportement moderne de l’IA, avec une supervision et une appropriation claires dans tous les départements.
  • Les méthodes statiques de gestion des risques ne sont plus adaptées aux risques liés à l’IA : Les audits annuels et les examens types ne permettent pas de détecter les vulnérabilités dynamiques des systèmes pilotés par l’IA. Les DSI et les RSSI doivent mettre en place une surveillance en temps réel et des cycles de validation continus pour les modèles d’IA.
  • Une approche moderne et structurée du risque doit englober toutes les équipes : La gestion des risques liés à l’IA nécessite de classer les menaces, d’automatiser la détection et d’aligner les ingénieurs, les juristes et les responsables de produits. Les dirigeants doivent favoriser la coordination interfonctionnelle et imposer la documentation, le red-teaming et les tests itératifs.
  • L’IA agentique exige des mises à jour immédiates de la gouvernance : Les systèmes d’IA autonomes peuvent déclencher des actions à grande échelle, créant ainsi des risques à évolution rapide. Le leadership doit définir des garde-fous en temps réel et des protocoles d’escalade avant de déployer une IA qui fonctionne de manière autonome dans des environnements cloud.

Alexander Procter

septembre 30, 2025

13 Min