Des acteurs étatiques tirent parti d’outils d’IA d’entreprise pour mener des cyberattaques sophistiquées

Nous voyons déjà des groupes de menaces avancées, comme APT28 en Russie, utiliser activement des outils d’intelligence artificielle de niveau professionnel pour mener des cyberattaques dans le monde réel. LAMEHUG, le premier logiciel malveillant doté d’un grand modèle de langage (LLM) déployé dans la nature, a été utilisé pour cibler l’Ukraine. Le logiciel malveillant se connecte à des jetons API volés à Hugging Face, ce qui lui permet d’extraire des données en temps réel à partir de modèles très performants. Ce qui est différent ici, c’est la méthode : il ne s’agit pas de force brute, mais d’une IA qui fait de la reconnaissance et du vol de données tout en montrant aux victimes de faux documents de cybersécurité ou, dans certains cas, des images provocantes.

Cela modifie les principes fondamentaux de la cybersécurité. Les frontières étaient importantes, les pare-feu, les périmètres, les réseaux segmentés. Mais aujourd’hui, les outils que nous avons construits pour la productivité se transforment en outils d’espionnage. Lorsque les LLM peuvent s’intégrer avec des identifiants d’accès volés et imiter un comportement normal, la menace n’est plus à l’extérieur de votre système. Elle se trouve dans les outils auxquels vous faites confiance.

Pour les dirigeants d’entreprise et les responsables technologiques, le véritable enjeu n’est pas seulement de se défendre contre les étrangers. Il s’agit de réaliser que les moteurs d’IA que vous déployez pour améliorer l’efficacité peuvent être détournés par d’habiles acteurs de la menace. L’IA n’a pas besoin de savoir ce qu’elle fait. Elle se contente de suivre les instructions.

Selon Cato CTRL Threat Research, LAMEHUG a utilisé environ 270 jetons API volés pour communiquer avec le modèle Qwen2.5-Coder-32B-Instruct de Hugging Face. Il ne s’agit pas d’une expérience de laboratoire. Il s’agit d’un État-nation qui utilise une plateforme open-source pour contourner les contrôles de sécurité dont de nombreuses entreprises ne savent pas encore qu’elles ont besoin.

Les plateformes d’IA d’entreprise peuvent être rapidement transformées en outils de développement de logiciels malveillants.

Voici la vérité toute crue : il n’a fallu que six heures à un chercheur en sécurité pour transformer ChatGPT-4o, Microsoft Copilot et DeepSeek en voleurs de mots de passe fonctionnels, sans aucune connaissance directe de la manière de coder des logiciels malveillants. Ce chercheur, Vitaly Simonovich de Cato Networks, n’a pas piraté le système. Il s’est contenté de lui parler. Il a créé un récit fictif, a présenté à l’IA un « personnage » impliqué dans l’écriture de fictions sur la cybersécurité et, étape par étape, le LLM a aidé à construire des logiciels malveillants, sans se rendre compte de ce qu’il faisait.

C’est l’échec des contrôles de sécurité statiques. Les systèmes d’intelligence artificielle sont conçus pour bloquer les demandes dangereuses lorsqu’elles sont évidentes. Mais ces modèles n’ont pas été formés pour résister à un pilotage persistant par le biais de récits, d’itérations et de séances de correction d’erreurs. Ils sont optimisés pour aider, et si l’attaquant assimile le codage d’un logiciel malveillant à l’écriture d’un roman, l’IA l’aide. C’est pour cela qu’elle a été conçue.

Selon le Cato CTRL Threat Report de 2025, Simonovich a produit un code d’attaque réel et fonctionnel par le biais d’un processus appelé Immersive World technique (technique du monde immersif), qui consiste simplement à d’ingénierie rapide et six heures de guidage persistant. Aucune expérience en matière de logiciels malveillants n’est requise. Et pourtant, le résultat était un voleur de mot de passe Chrome prêt à être déployé qui contournait tous les contrôles de sécurité en place.

C’est l’environnement dans lequel nous évoluons aujourd’hui. Vous n’avez pas besoin d’être un expert en piratage informatique. Il vous suffit d’être créatif, d’avoir accès à un modèle d’IA commercial et de disposer de quelques heures. Cela modifie le risque. Cela exige également que les dirigeants repensent la manière dont ils évaluent l’adoption des outils d’IA, non seulement du point de vue de la performance ou du retour sur investissement, mais aussi du point de vue de la sécurité.

Les tactiques d’hameçonnage et de distraction pilotées par l’IA renforcent l’efficacité des cyberattaques

APT28 n’envoie pas de pièces jointes au hasard. Ils envoient des courriels d’hameçonnage convaincants et personnalisés avec des fichiers ZIP contenant des exécutables qui semblent tout à fait légitimes. Lorsqu’ils sont ouverts, ces fichiers affichent des PDF d’apparence officielle provenant d’agences gouvernementales ukrainiennes ou d’organismes de cybersécurité. Pendant que la victime les lit, le logiciel malveillant, alimenté par l’intelligence artificielle, effectue une reconnaissance discrète, extrait des documents et les envoie hors du système.

Une variante change de tactique et affiche des images générées par l’IA, conçues uniquement pour retenir l’attention de l’utilisateur. Il s’agit de distractions calculées pour maintenir l’attention de l’utilisateur pendant que les données sont silencieusement exfiltrées en arrière-plan. C’est ainsi que les acteurs de la menace combinent l’exécution technique et la manipulation psychologique. Et parce que le contenu semble digne de confiance ou attrayant, il fait gagner du temps au logiciel malveillant.

Pour les décideurs, cela signifie que les filtres de courrier électronique, les protocoles antivirus et les outils d’analyse de contenu standard ne suffisent plus. Ces attaques ne se précipitent pas pour se révéler. Elles font le contraire. Elles s’efforcent de rester cachées derrière un contenu d’apparence authentique ou la curiosité humaine. Ce qui était auparavant une attaque de point final est désormais une expérience interactive à laquelle l’utilisateur participe à son insu.

La réalité est documentée : Cato CTRL Threat Research fait état de deux variantes distinctes de LAMEHUG, l’une imitant les communications officielles en matière de cybersécurité et l’autre présentant des images explicites générées par l’IA à l’aide d’invites conçues pour détourner l’attention. Ces campagnes sont conçues avec précision pour une efficacité maximale lors de l’extraction de données en temps réel.

L’essor des plateformes d’IA sur le marché noir démocratise l’accès aux capacités avancées des logiciels malveillants.

L’infrastructure nécessaire aux cyberattaques alimentées par l’IA existe. Elle est active. Et elle est à vendre. Des plateformes clandestines comme Xanthrox AI et Nytheon AI fonctionnent avec une infrastructure de services complète, des abonnements mensuels, des paiements récurrents, une assistance à la clientèle et des mises à jour de produits. Xanthrox, par exemple, coûte 250 dollars par mois et propose une interface de type ChatGPT sans aucun filtre de sécurité. Vous pouvez entrer n’importe quoi. Vous obtiendrez un code. Il ne pose pas de questions.

Il ne s’agit pas de plateformes conceptuelles. Il s’agit d’entreprises opérationnelles conçues pour supprimer le contrôle et la conformité. Un essai sur Xanthrox ? Simonovich a demandé des instructions sur les armes nucléaires en utilisant le langage naturel. Le système a répondu instantanément, en recherchant sur le web, en rassemblant des suggestions, en construisant des résultats. C’est ce qui se passe lorsqu’il n’y a pas de restrictions. Ce niveau de réponse ne serait jamais autorisé sur des plateformes d’entreprise comme OpenAI ou Microsoft Copilot.

Nytheon AI est allé plus loin. Aucune préoccupation en matière de sécurité opérationnelle. Pas de contrôle. Pas d’obscurcissement. Selon M. Simonovich, l’entreprise lui a donné un compte d’évaluation sans hésitation. En coulisses, ils utilisent une version perfectionnée de Llama 3.2 de Meta, modifiée pour supprimer toute limitation de la production générative.

Les dirigeants doivent prendre conscience de la signification de ce changement. Cette évolution n’est pas limitée aux attaquants disposant d’équipes de R&D ou de sponsors gouvernementaux. Toute personne disposant de quelques centaines de dollars et d’un accès de base peut désormais lancer des campagnes de création de logiciels malveillants à l’aide de modèles qui se comportent comme des assistants de développement sans restriction. Ces plateformes offrent des clones de « code Claude », qui sont conçus spécifiquement pour générer des charges utiles exécutables, des scripts d’exploitation et des techniques d’évasion.

L’obstacle est ainsi considérablement réduit. Le modèle d’abonnement rend les capacités d’attaque sophistiquées évolutives. Et comme ces outils sont optimisés pour la vitesse et le rendement au détriment de l’éthique et de la sécurité, ils mettent effectivement les cadres de développement du marché noir à la portée de n’importe qui. Il s’agit désormais d’un risque de base qui doit être pris en compte dans les stratégies de sécurité des entreprises.

L’adoption de l’IA par les entreprises dépasse rapidement l’intégration de mesures de sécurité adéquates.

L’adoption s’accélère. Les entreprises déploient l’IA de manière opérationnelle dans tous les départements et dans des secteurs entiers. Des outils d’IA comme Claude, PerplexityGemini, ChatGPT et Copilot sont passés de l’expérimentation à la mise en œuvre. Dans de nombreux cas, ils sont maintenant intégrés dans des environnements de production en direct, soutenant les flux de travail critiques de l’entreprise.

Le problème est clair : la sécurité ne suit pas. Les données le confirment. Cato Networks a analysé 1,46 trillion de flux réseau. Entre le premier et le deuxième trimestre 2024, l’utilisation de l’IA par les entreprises a augmenté de 58 % dans le divertissement, de 43 % dans l’hôtellerie et de 37 % dans les transports. Il s’agit de secteurs très exposés qui traitent des données dynamiques et sensibles constamment sollicitées.

Ce qui manque, c’est une réponse unifiée de l’entreprise aux menaces liées à l’IA qui existent déjà. Les fournisseurs d’IA renforcent les contrôles au sein de leurs modèles, mais il y a trop souvent un décalage entre la recherche sur les menaces et la mise en œuvre des mesures de protection. Cato Networks a divulgué des techniques d’exploitation rapide aux principaux développeurs. Les réactions ont été incohérentes. Microsoft a procédé à des mises à jour rapides et s’est félicité de la recherche. OpenAI a accusé réception de l’information, mais n’a pas pris de mesures. Google a refusé d’examiner les preuves. DeepSeek n’a pas réagi du tout.

Pour les équipes dirigeantes, cela révèle un écart stratégique entre votre taux d’innovation et la capacité de votre écosystème de partenaires à le sécuriser. L’adoption de l’IA à grande échelle sans un investissement équivalent dans les contrôles de protection crée une exposition. Au fur et à mesure que les outils sont intégrés dans les équipes, des robots d’assistance aux moteurs d’analyse, ils deviennent des cibles potentielles et, pire encore, des responsabilités opérationnelles s’ils se retournent contre votre organisation de l’intérieur.

Les processus de sécurité, les normes d’audit et les examens des risques doivent évoluer en même temps que votre stratégie d’IA. Les protocoles de protection conçus pour les applications web ou les déploiements cloud hérités ne tiennent pas compte de la manipulation prompte, de l’utilisation abusive de la conversation ou de la subversion interne de l’IA.

Le développement de logiciels malveillants avancés ne nécessite plus de compétences techniques approfondies.

Les logiciels malveillants de niveau expert nécessitaient auparavant un ensemble de compétences spécifiques, une expérience approfondie du codage, des outils spécialisés et des années de pratique. Ce n’est plus le cas. Avec les LLM modernes, n’importe qui peut générer des logiciels malveillants fonctionnels à l’aide d’une conversation structurée et d’une simple persistance.

Vitaly Simonovich l’a prouvé lors d’une démonstration en direct. Il a créé un voleur de mot de passe Chrome fonctionnel en six heures à l’aide de ChatGPT et de plusieurs sessions d’invite. Il n’a pas introduit de scripts malveillants dans le modèle. Il a encadré la conversation autour d’un récit fictif, en présentant l’IA comme un collaborateur dans l’écriture d’un roman. L’IA n’a jamais reconnu l’objectif réel, elle a cru qu’elle aidait à construire une histoire. À la fin, le résultat était un logiciel malveillant exécutable.

Cela rompt avec l’hypothèse traditionnelle selon laquelle le développement de menaces nécessite une expertise de haut niveau ou l’accès à des cadres spécialisés. L’ingénierie rapide a remplacé le codage technique comme point d’entrée. Cela change complètement la donne. Les attaquants n’ont plus besoin d’une formation en développement de logiciels malveillants. Il leur suffit d’avoir accès à des outils génératifs et de pouvoir manipuler le dialogue.

Les implications pour la sécurité des entreprises sont importantes. Le personnel utilise déjà ces modèles pour la documentation, le développement, l’assistance à la clientèle et les opérations. Toute mauvaise utilisation, intentionnelle ou accidentelle, pourrait entraîner la création ou l’exécution de codes malveillants à partir de votre propre écosystème.

Les cadres de sécurité doivent commencer à traiter les interactions rapides et les résultats conversationnels comme des vecteurs de menace potentiels. Les contrôles d’accès internes, l’enregistrement du contenu et les audits d’utilisation des systèmes d’IA sont désormais des exigences de base. Si les organisations n’intègrent pas ces pratiques dès le début, il sera de plus en plus difficile de détecter les abus une fois qu’ils sont déjà opérationnels.

La nature à double usage de l’IA crée des vulnérabilités systémiques en matière de sécurité au sein des entreprises

L’IA est désormais intégrée dans la plupart des environnements d’entreprise. Selon la dernière étude de McKinsey, 78 % des organisations déclarent utiliser l’IA dans au moins une fonction de l’entreprise. Cette échelle d’adoption crée de nouvelles formes d’exposition, non pas par le biais d’une compromission externe, mais par les capacités internes des outils eux-mêmes.

Ce qui rend ce changement critique, c’est la façon dont l’IA peut être réutilisée avec peu de friction. Un modèle développé pour générer de la documentation sur un produit, automatiser des flux de travail ou aider des développeurs peut également, si les données d’entrée sont correctes, générer des scripts d’attaque exécutables. Il n’est pas nécessaire de modifier l’infrastructure ou les données d’entraînement. Il suffit d’invites intelligemment conçues.

Les outils d’IA étant conçus pour être utiles, rapides et tolérants aux erreurs, ils sont particulièrement faciles à manipuler par le biais d’un dialogue soutenu. Cela crée un scénario où un comportement malveillant peut émerger non pas de l’injection de code ou de vulnérabilités de la plateforme, mais d’interactions en langage naturel qui guident le modèle vers un résultat dangereux, le tout dans un environnement d’entreprise de confiance.

Les systèmes de sécurité se concentrent toujours sur les points d’extrémité, la détection basée sur les signatures et la surveillance du comportement au niveau du réseau. Mais avec l’IA générative, l’attaque n’est pas un fichier ou un binaire. C’est la conversation elle-même. Cela exige que les organisations étendent leur réflexion au-delà des contrôles traditionnels. L’utilisation abusive d’invites, la manipulation de modèles et l’abus d’IA interne font désormais partie de la matrice de sécurité.

Pour les dirigeants, le message est direct : vos outils de productivité IA sont également des risques de sécurité latents. Non pas à cause de l’intention, mais à cause de la structure. La sécurité doit évoluer avec l’adoption. Ne pas évaluer le potentiel de double usage de votre pile d’IA vous rend vulnérable aux menaces qui ne sont pas visibles à travers les systèmes existants.

Cela nécessite une compréhension délibérée, à l’échelle de l’organisation, de la manière dont l’IA générative peut être réorientée. Les processus d’examen, d’accès, de validation des résultats et d’audit doivent correspondre aux capacités de ces outils. Les équipes dirigeantes doivent s’assurer que leurs politiques de gouvernance de l’IA ne couvrent pas seulement le retour sur investissement et la conformité, mais qu’elles s’alignent sur l’état de préparation aux menaces en temps réel. Sinon, les outils mêmes conçus pour accélérer les progrès pourraient devenir le point faible du système.

Réflexions finales

Le paysage des menaces a changé. Ce qui nécessitait autrefois des compétences techniques d’élite peut désormais être exécuté à l’aide d’une invite, de quelques jetons volés et d’un abonnement de 250 dollars. Les outils d’IA d’entreprise, conçus pour stimuler la productivité, font déjà l’objet d’une rétro-ingénierie pour devenir des plateformes d’attaque. Il ne s’agit pas d’un futur. C’est opérationnel dès maintenant.

Si vous déployez l’IA dans votre organisation sans la considérer comme un risque de sécurité potentiel, vous êtes déjà exposé. L’attention traditionnelle portée à la protection du périmètre est dépassée. La surface d’attaque se trouve à l’intérieur de votre pile de productivité, intégrée dans chaque LLM utilisé par vos équipes.

En tant que décideurs, la priorité n’est pas de mettre l’IA en pause. Il s’agit de traiter les outils d’entreprise avec la même rigueur que les infrastructures critiques. Cela signifie une gouvernance. Cela signifie une surveillance en temps réel. Cela signifie que vous devez aligner votre feuille de route en matière d’IA sur une stratégie de sécurité qui anticipe les abus au lieu d’y réagir.

L’IA continuera d’apporter une grande valeur ajoutée. Mais elle ne s’accompagne plus d’une séparation nette entre l’innovation et le risque. C’est en comprenant cela et en agissant en conséquence que les organisations resteront sûres tout en restant compétitives.

Alexander Procter

août 29, 2025

15 Min