Validation continue et réduction mesurable des risques

Nous entrons dans une ère de la sécurité où la formule « on règle et on oublie » ne fonctionnera plus.

Les équipes dirigeantes insistent davantage pour que les investissements en matière de sécurité prouvent leur valeur, non pas par des mots à la mode, mais par des résultats. Les approches traditionnelles qui s’appuient sur des vulnérabilités théoriques ou des listes de contrôle de conformité statiques sont insuffisantes. Ce dont les conseils d’administration et les équipes dirigeantes ont besoin aujourd’hui, c’est d’une visibilité directe sur ce qui est à risque, à l’instant même, dans leur environnement.

La gestion continue de l’exposition aux menaces (CTEM) offre cette clarté. Il s’agit d’un cadre qui combine une validation constante des contrôles de sécurité avec des environnements de test en direct qui simulent des attaques réelles. L’objectif n’est pas de cocher une case, mais de se demander ce qu’un véritable attaquant pourrait exploiter s’il avait accès au système aujourd’hui.

Kara Sprague, PDG de HackerOne, le dit clairement : « La sécurité ne peut pas se permettre d’être statique, théorique ou cloisonnée. Elle doit être continue, validée et liée à l’impact sur l’entreprise ». Lorsque la pression économique augmente, les dirigeants ne veulent pas plus d’outils, ils veulent de meilleurs résultats. Le CTEM fournit ces résultats en validant les défenses en temps réel. Les responsables de la sécurité commencent à prendre des décisions basées sur ce qui peut être exploité maintenant, et pas seulement sur ce qui pourrait être vulnérable sur le papier.

Ce changement permet de contrôler les coûts, de concentrer les ressources et de donner la priorité à ce qui est important. Vous ne perdez plus de temps sur des questions qui ne présentent pas de risque réel. En période d’incertitude, la clarté et la précision dans la réduction des risques offrent un avantage opérationnel considérable.

Le double rôle de l’IA dans la cybersécurité

L

‘IA est en train d’écrire les deux côtés du livre de jeu de la cybersécurité, et elle le fait rapidement.

D’un côté, les attaquants automatisent. Ils utilisent l’IA pour cartographier vos systèmes, combiner les vulnérabilités en chaînes et ajuster leurs tactiques en temps réel. Ce qui prenait des heures prend aujourd’hui quelques minutes. Ces attaques renforcées par l’IA apprennent de chaque interaction et deviennent de plus en plus évasives avec le temps.

D’autre part, nous assistons à une utilisation intelligente de l’IA défensive. Il ne s’agit pas de systèmes passifs. Il s’agit d’agents d’IA conçus pour tester votre sécurité, trouver de véritables exploits et même suggérer ou déclencher des correctifs. La gestion de l’exposition passe ainsi de périodique à permanente.

Laurie Mercer, directeur principal de l’ingénierie des solutions chez HackerOne, rapporte que les hackbots alimentés par l’IA trouvent déjà de vraies vulnérabilités. Ils sont particulièrement efficaces lorsqu’ils sont associés à des chercheurs humains. Il s’agit d’un « hacking bionique » : les machines augmentent l’effort, les humains apportent la profondeur. Selon HackerOne, 66 % des chercheurs considèrent déjà que ces outils d’IA stimulent la créativité. D’ici à 2026, environ 4 000 vulnérabilités, soit 5 % du total des découvertes, devraient provenir de systèmes assistés par l’IA ou autonomes.

La leçon à tirer pour les dirigeants est claire : en matière de cybersécurité, il ne s’agit pas d’opposer l’IA à l’être humain, mais l’IA à l’être humain. C’est l’IA plus l’humain. La vitesse vient de l’automatisation, le jugement des personnes. Et lorsqu’ils sont déployés ensemble de manière efficace, ils ne se contentent pas de suivre, ils commencent à prendre les devants.

L’émergence d’attaques natives de l’IA

L’IA n’est plus seulement un outil pour les attaquants, elle devient l’architecte de toute la campagne.

Ce que nous voyons aujourd’hui va au-delà du piratage assisté par l’IA. Il s’agit d’attaques natives de l’IA. Entièrement autonomes, profondément adaptatives, elles sont de plus en plus difficiles à contrer. Elles s’adaptent en temps réel, modifient leurs charges utiles en fonction des réactions de l’environnement et réécrivent même leur propre comportement en cours d’opération. Cela modifie le rythme, la complexité et l’ampleur des cyberincidents.

Gal Diskin, vice-président de Identity Threat and Research chez Delinea, souligne que 2026 sera la première année où ces attaques générées par l’IA dépasseront de manière fiable la réponse humaine. Les délais d’intrusion se réduisent à quelques minutes, et les cycles de réponse traditionnels ne sont pas assez rapides pour suivre le rythme.

Les signes essentiels de cette évolution sont de plus en plus clairs : logiciels malveillants génératifs qui changent rapidement pour éviter d’être détectés, usurpation d’identité dynamique à l’aide de personas créés par l’IA et chaînes d’exploitation qui évoluent en mouvement. Ces campagnes n’attendent pas. Elles exploitent et passent à autre chose avant même que vous n’ayez vu l’alerte.

Le défi pour les équipes de sécurité et les dirigeants est que des mesures telles que le « temps moyen de détection » deviennent obsolètes. La nouvelle référence sera le « temps moyen de réponse algorithmique ». Si vous ne pouvez pas réagir à la vitesse de la machine, vous ne réagissez pas assez vite. La supervision humaine restera essentielle pour la prise de décision, mais les défenseurs ont besoin de systèmes capables de gérer un engagement précoce de manière autonome, sans hésitation.

Pour les dirigeants, il ne s’agit pas d’une question d’avenir. Il s’agit d’un facteur concurrentiel actuel en matière de résilience. Les adversaires utilisent de plus en plus l’intelligence artificielle, vos défenses doivent faire de même.

Sécurité offensive proactive grâce au CTEM

La sécurité ne récompense plus l’attente d’une brèche. La stratégie offensive est devenue une exigence de base, et elle évolue rapidement.

Les grandes organisations élaborent désormais des programmes de sécurité qui partent du principe que les attaquants testent déjà leurs systèmes. Cet état d’esprit se traduit dans la pratique par des cadres tels que la gestion continue de l’exposition aux menaces (Continuous Threat Exposure Management – CTEM). Il s’agit d’un moyen structuré de garder une longueur d’avance, en testant, validant et réduisant constamment les risques sur la base de ce qui est réellement exploitable aujourd’hui.

Nidhi Aggarwal, Chief Product Officer chez HackerOne, estime qu’il s’agit là du fondement de l’adoption sécurisée des technologies émergentes, en particulier dans le domaine de l’IA. La plupart des vulnérabilités découvertes dans les déploiements d’IA ne sont pas des problèmes d’algorithmes profonds, mais des défaillances simples et évitables, comme des contrôles d’accès non respectés. Selon le rapport 2025 HackerOne’s Hacker-Powered Security Report, les tests de programmes liés à l’IA ont augmenté de 270 % d’une année sur l’autre, tandis que les attaques par injection rapide ont bondi de 540 %. Pourtant, 97 % des incidents sont dus à des lacunes d’accès de base. Cela peut être évité.

Lorsque le CTEM est correctement mis en œuvre, il crée une boucle de rétroaction constante : découverte, validation, réponse. Dans cette boucle, l’automatisation et l’expertise humaine restent alignées. Elle accélère la résolution des problèmes sans sacrifier la qualité.

Le changement se fait rapidement. Près de 70 % des chercheurs en sécurité intègrent désormais l’IA dans leur flux de travail, non seulement pour des raisons d’efficacité mais aussi de compréhension. Plus de la moitié d’entre eux développent leurs compétences en matière de sécurité liée à l’IA. C’est ainsi que les équipes prennent de l’avance : non pas en réagissant, mais en resserrant continuellement l’écart entre le risque connu et la défense active.

Si vous envisagez d’adopter une nouvelle technologie dans votre organisation, prévoyez une validation offensive dans ce plan. La réaction ne vous sauvera pas. Des tests de sécurité contrôlés et continus le feront.

Identités synthétiques et érosion de la confiance numérique

La frontière entre l’authentique et l’artificiel s’effondre et, avec elle, la confiance numérique.

Nous entrons dans une phase où les identités synthétiques sont conçues avec précision. Il ne s’agit pas seulement de faux comptes. Il s’agit de profils numériques entièrement formés, construits à partir d’un mélange de données volées et de contenu généré par l’intelligence artificielle. Ils sont dotés de documents, d’historiques en ligne et de modèles comportementaux qui passent la vérification traditionnelle sans déclencher d’alertes.

Gal Diskin, vice-président de Identity Threat and Research chez Delinea, l’affirme clairement : les identités synthétiques deviendront un vecteur d’attaque dominant d’ici à 2026. Utilisées à l’origine pour la fraude, ces identités sont désormais déployées pour l’espionnage, l’infiltration de la chaîne d’approvisionnement et la tromperie de haut niveau. Qu’elles se présentent comme des employés, des fournisseurs ou même des recruteurs, la menace est la même : un accès non autorisé fondé sur des identités numériques fausses mais crédibles.

L’environnement des menaces évolue rapidement. Les attaquants fusionnent des données personnelles avec des éléments générés par l’IA pour contourner les contrôles de connaissance du client (KYC), de lutte contre le blanchiment d’argent (AML) et d’antécédents en matière de ressources humaines. En outre, les médias falsifiés (voix, vidéo et images faciales) sont utilisés pour légitimer davantage ces identités, ce qui les rend plus difficiles à détecter à l’aide d’outils conventionnels.

Il ne s’agit plus d’un problème de vérification, mais d’un problème de confiance. Les systèmes dont nous dépendions pour authentifier les utilisateurs sont battus en brèche par une technologie qui imite la légitimité à grande échelle. La réponse doit changer : des vérifications statiques de titres de compétences à la preuve cryptographique et à la validation comportementale soutenue dans le temps.

Les dirigeants doivent comprendre qu’il ne s’agit pas d’une curiosité technique. L’abus d’identité synthétique vise la réputation, l’intégrité du système et le contrôle d’accès. Ces risques ne peuvent pas être traités avec des solutions de surface, ils nécessitent une architecture d’authentification plus profonde qui ne peut pas être usurpée par des attaques basées sur l’IA. Les organisations qui ne s’adaptent pas perdront non seulement des données, mais aussi la confiance de leurs clients, partenaires et employés. Et il est bien plus difficile de récupérer cette confiance que de la défendre d’emblée.

Principaux enseignements pour les dirigeants

  • Donnez la priorité à la validation continue plutôt qu’aux contrôles statiques : Les responsables de la sécurité devraient se concentrer sur les cadres de gestion de l’exposition tels que CTEM pour garantir une vision en temps réel des risques exploitables, en particulier dans le cadre de contraintes budgétaires croissantes.
  • Combinez l’automatisation de l’IA avec le jugement humain : Investissez dans des agents de sécurité alimentés par l’IA qui peuvent intensifier les efforts et réduire les faux positifs, tout en conservant une supervision humaine pour l’analyse des vulnérabilités complexes et la prise de décision.
  • Préparez-vous à des attaques natives de l’IA qui dépassent la réponse humaine : Les organisations doivent adopter des réponses algorithmiques, à la vitesse de la machine, pour contrer les menaces d’IA entièrement autonomes et adaptatives qui compriment les délais d’intrusion et échappent à la détection.
  • Mettre en œuvre des programmes de sécurité proactifs et offensifs : Passez d’une défense réactive à une validation contradictoire continue à l’aide de CTEM pour soutenir l’adoption sécurisée de l’IA et réduire les vulnérabilités évitables telles que les défaillances du contrôle d’accès.
  • Repensez la vérification de l’identité face aux menaces synthétiques : Renforcez les systèmes d’authentification avec une validation cryptographique et comportementale, car les personas générés par l’IA contournent de plus en plus les contrôles de confiance et de vérification traditionnels.

Alexander Procter

décembre 17, 2025

10 Min