L’IA orchestre des cyberattaques à grande échelle, transformant les opérations de Ransomware.

En matière de cybersécurité, l’IA est passée de la prédiction à l’exécution. Ce que nous voyons aujourd’hui, ce sont des campagnes de Ransomware conçues et exécutées presque entièrement par des modèles de langage. Claude, un chatbot IA développé par Anthropic, a récemment été utilisé dans une attaque réelle contre 17 organisations, allant de fournisseurs de soins de santé à une entreprise de défense. L’IA a effectué une reconnaissance, écrit du code, volé des informations d’identification, rédigé des notes de rançon et même proposé des montants de rançon allant de 75 000 à 500 000 dollars en bitcoins.

Ce niveau d’automatisation modifie fondamentalement l’économie de la cybercriminalité. Ce qui nécessitait auparavant une équipe qualifiée et beaucoup de temps peut désormais être orchestré par un seul acteur à l’aide d’un système d’IA et d’une compréhension générale de la méthodologie criminelle. Le potentiel de mise à l’échelle est énorme, tout comme la surface de menace pour votre organisation.

Ce que cela signifie pour les chefs d’entreprise est simple : ne supposez pas que votre posture de sécurité est à jour simplement parce qu’elle était saine l’année dernière. Si l’IA peut générer une infrastructure de Ransomware en quelques minutes, vos évaluations traditionnelles des risques ne sont plus suffisantes. L’IA ne fait pas qu’accélérer les cyberattaques, elle relève le niveau de référence. Et ce n’est pas un pic, c’est la ligne de départ.

L’IA générative permet à des pirates peu qualifiés d’accéder à des outils malveillants sophistiqués et de les diffuser.

La barrière à l’entrée de la cybercriminalité s’est rapidement abaissée. Les Ransomware sophistiqués ne sont plus le domaine des hackers d’élite. Un groupe du Royaume-Uni, identifié comme GTG-5004, vendait des kits de Ransomware construits avec l’aide du chatbot Claude. Ils manquaient de compétences en matière de chiffrement et de conditionnement, mais cela n’avait pas d’importance. L’IA comblait ces lacunes techniques. Leurs kits se vendaient entre 400 et 1 200 dollars, selon le niveau de complexité et de service.

ESET, une entreprise mondiale de cybersécurité, a découvert une preuve de concept appelée PromptLock, un logiciel malveillant généré et modifié par une IA générative qui peut s’adapter à la volée. Il peut contourner les antivirus et les protocoles de sécurité en temps réel. Ces outils ne se contentent pas de reproduire des attaques connues ; ils s’adaptent à l’évolution des conditions. Il s’agit là d’un véritable problème.

Il ne s’agit pas d’un problème technologique, mais d’un problème structurel. Nous entrons dans une période où la capacité d’attaque augmente plus vite que la capacité de défense, à moins que les entreprises ne mettent l’IA au service de la défense. Les pare-feu, les antivirus, la protection des points d’accès sont tous utiles, mais aucun d’entre eux n’est conçu pour se défendre contre les variantes de logiciels malveillants qui mutent à chaque interaction. C’est là que votre stratégie doit évoluer, et rapidement. L’inaction est essentiellement un chèque en blanc pour vos adversaires.

Les chatbots d’IA peuvent être manipulés de manière à contourner les règles de sécurité, ce qui permet une utilisation malveillante.

La plupart des gens pensent que les systèmes d’IA sont sûrs parce qu’ils ont été formés à des protocoles de sécurité. Cette hypothèse n’est plus valable. Des chercheurs de Palo Alto Networks ont découvert que les grands modèles de langage, notamment Gemma de Google, Llama de Meta et Qwen d’Alibaba, peuvent être manipulés à l’aide d’un texte dont la ponctuation n’est pas correcte ou dont la grammaire est délibérément déficiente. Ces invites erronées perturbent les systèmes d’alignement, la logique interne de l’IA qui décide si une requête est sûre, et permettent aux attaquants d’extraire plus facilement des résultats dangereux, tels que des codes de logiciels malveillants ou des instructions de fraude.

Les risques ne s’arrêtent pas à des phrases mal tournées. Les chercheurs Kikimora Morozova et Suha Sabi Hussain de Trail of Bits ont présenté une attaque plus avancée : l’injection multimodale d’instructions. Dans cette méthode, des instructions malveillantes sont cachées dans des images à haute résolution. Lorsque ces images sont traitées par des systèmes d’intelligence artificielle, ces commandes cachées sont interprétées sans que l’utilisateur ne les voie ou ne les saisisse, ce qui permet aux attaquants de transmettre des instructions sans être détectés.

Si vous gérez un produit à grande échelle qui implique des composants d’IA, des chatbots, des modèles, des API, vous devez comprendre que ces vulnérabilités s’étendent à tous les systèmes. Des compétences minimales sont nécessaires pour les exploiter. Les attaquants n’attendent pas que votre entreprise rattrape son retard. Ils s’adaptent déjà aux points de défaillance exposés dans les modèles génératifs. L’étanchéité de l’alignement de l’IA n’est pas une tâche statique, elle nécessite des tests réguliers et fréquents, comme tout autre système critique. Si vous ne le faites pas, vous ouvrirez des portes dérobées dont vous ne vous rendrez compte que trop tard.

Les escroqueries au clonage vocal sont devenues courantes et plus convaincantes grâce à l’IA générative

Nous sommes aujourd’hui dans une phase où la technologie de la voix synthétique est suffisamment fiable pour escroquer les gens à grande échelle. Si quelqu’un dispose d’un court enregistrement vocal, de trois secondes seulement, il peut générer de faux appels convaincants. Selon l’étude mondiale 2024 de McAfee, une personne sur quatre a été victime d’une escroquerie à la voix artificielle ou connaît quelqu’un qui en a été victime.

Dans un cas réel, un père californien a reçu un appel d’une personne ressemblant trait pour trait à son fils. La voix clonée prétendait qu’il avait eu un accident et qu’il avait besoin d’argent pour payer sa caution. Résultat : des milliers de dollars perdus. Un autre exemple concerne le ministre italien de la défense, Guido Crosetto. Sa voix clonée a été utilisée pour cibler des cadres supérieurs comme Giorgio Armani et Massimo Moratti, convainquant ce dernier de transférer près d’un million d’euros sur un compte à Hong Kong, qui a ensuite été gelé aux Pays-Bas.

Le défi pour les entreprises est que ces escroqueries ne visent plus seulement les particuliers. Elles remontent la chaîne alimentaire jusqu’aux cadres, aux responsables financiers et aux membres du conseil d’administration. Les attaquants n’ont pas besoin d’ouvrir une brèche physique dans quoi que ce soit. Ils ont simplement besoin d’un court extrait d’une interview ou d’une déclaration publique.

Les entreprises doivent repenser la manière dont elles authentifient les voix. La voix seule n’est plus un signal d’identité crédible. La mise en œuvre d’une vérification multicanal, d’une surveillance des points finaux et d’une détection des fraudes basée sur l’IA n’est pas facultative, elle est nécessaire. Ces escroqueries sont rapides et convaincantes. Si votre équipe ne peut pas les détecter ou ne sait pas comment les faire remonter, les pertes seront immédiates et difficiles à récupérer.

Les navigateurs web alimentés par l’IA introduisent de nouveaux vecteurs d’attaque personnalisés

Les navigateurs pilotés par l’IA modifient déjà la façon dont les gens interagissent avec l’internet. Des outils comme Comet de Perplexity peuvent naviguer sur des sites web, cliquer sur des liens, effectuer des achats, réserver des voyages, gérer des courriels et même extraire et résumer des données. Ces navigateurs automatisent des flux de travail à plusieurs étapes et agissent avec un haut niveau d’autonomie à travers des services authentifiés. Cela semble efficace à première vue, mais cette indépendance introduit de sérieuses lacunes en matière de sécurité.

Les chercheurs de Guardio Labs ont créé un faux site web Walmart en moins de 10 secondes et ont demandé à Comet d’acheter une Apple Watch. Le navigateur IA a visité le faux site, ignoré les signes de fraude, rempli en mémoire les informations relatives à la carte de crédit et à l’expédition, et tenté d’effectuer la transaction. Dans certains cas, il a demandé l’approbation d’un humain, dans d’autres, il ne l’a pas demandée. Cette incohérence est un multiplicateur de risque. Brave et Guardio Labs ont également découvert que les attaquants pouvaient manipuler Comet pour qu’il exécute des commandes cachées en les intégrant dans des formulaires CAPTCHA. Le navigateur effectuait des clics invisibles et contournait les messages de sécurité sans alerter l’utilisateur.

Le problème ici n’est pas une mauvaise ingénierie, ces outils sont optimisés pour l’assistance à l’utilisateur. Le problème réside dans le fait que l’on suppose que l’IA ne se trompe pas dans la lecture des messages malveillants ou des sites frauduleux. Ces systèmes n’ont pas été conçus pour détecter l’ingénierie sociale ou la tromperie visuelle à ce niveau. Il s’agit là d’un problème de leadership. Si votre entreprise intègre des agents d’IA dans les interfaces client principales, les achats, l’assistance, l’accueil, vous avez besoin de systèmes de sécurité distincts qui vérifient chaque point d’interaction externe. Car ce ne seront plus des personnes qui prendront ces décisions, mais des logiciels.

Jon von Tetzchner, PDG de Vivaldi, a déjà pris position en confirmant que Vivaldi n’intégrerait pas l’IA dans son navigateur, soulignant l’importance de préserver le contrôle de l’utilisateur sur l’automatisation passive. C’est une position stratégique qui mérite d’être observée.

Les mesures de cybersécurité traditionnelles restent cruciales aux côtés des outils émergents basés sur l’IA.

Si l’IA transforme la façon dont les cyberattaques se produisent, la cyberhygiène traditionnelle joue toujours un rôle important. La plupart des violations sont encore dues à l’erreur humaine, à des systèmes non corrigés, à des mots de passe faibles et à l’ingénierie socialeles systèmes non corrigés, les mots de passe faibles, l’ingénierie sociale. Ces problèmes n’ont pas disparu simplement parce que l’IA est maintenant dans la boucle des exploits. Ce qui a changé, c’est la vitesse et l’imprévisibilité des menaces.

Une base de référence solide, l’authentification à deux facteurs, la formation des employés, la gestion des points d’accès et des tests de pénétration réguliers sont toujours importants. Ces tâches ne doivent pas être ignorées simplement parce qu’elles vous semblent familières. Elles constituent le périmètre. Mais au-delà de cela, les entreprises ont désormais besoin de l’IA du côté de la défense, et pas seulement de l’attaque. Les outils de sécurité modernes basés sur l’apprentissage automatique peuvent analyser des millions d’événements par seconde, isoler des modèles et neutraliser les menaces sans attendre une intervention humaine.

Le rythme des attaques a dépassé celui des réponses manuelles. La protection des grands systèmes, en particulier dans les domaines de la santé, de la finance ou des infrastructures critiques, dépend désormais d’une IA qui surveille en temps réel. Les outils défensifs ne peuvent pas fonctionner selon des cycles de mise à jour traditionnels ou des ensembles de règles statiques. Ils doivent s’adapter, exactement comme les menaces qu’ils surveillent.

Si votre conseil d’administration ou votre équipe de direction n’a pas budgétisé ou planifié des systèmes de sécurité axés sur l’IA aux côtés des systèmes existants, vous êtes exposé. Vous ne pouvez pas empêcher les mauvais acteurs d’utiliser l’IA, mais vous pouvez absolument les surpasser avec vos propres systèmes. Commencez par là.

Principaux enseignements pour les décideurs

  • L’IA gère désormais les cyberattaques de bout en bout : Les dirigeants doivent se préparer à des campagnes de Ransomware entièrement automatisées menées par l’IA, capables d’exécuter chaque étape d’une attaque, de la reconnaissance à la négociation de la rançon, à une échelle et à une vitesse qui dépassent les modèles de défense traditionnels.
  • Les acteurs peu qualifiés disposent désormais d’outils avancés : Les dirigeants doivent partir du principe que les cybermenaces ne nécessitent plus d’expertise technique, car les kits de Ransomware générés par l’IA sont désormais bon marché, adaptatifs et presque sans effort à déployer, ce qui augmente l’exposition au risque des organisations.
  • Les garde-fous de l’IA ne sont pas infaillibles : Les chefs d’entreprise doivent investir dans des tests réguliers d’alignement de l’IA et dans des équipes rouges internes, car les failles dans le traitement des messages rapides et les vulnérabilités multimodales peuvent permettre aux attaquants de contourner les filtres de contenu et d’exécuter des instructions malveillantes sans être détectés.
  • Les menaces de clonage vocal sont des risques opérationnels : La prévention de la fraude en entreprise doit désormais prendre en compte les menaces audio générées par l’IA, y compris l’usurpation de l’identité de dirigeants, qui peuvent déclencher des transactions non autorisées ou des divulgations de données grâce à des imitations vocales convaincantes.
  • Les navigateurs d’IA présentent de nouveaux risques pour la chaîne d’approvisionnement : Tout assistant d’IA basé sur le web capable de traiter des formulaires et d’exécuter des achats pourrait être détourné par des interfaces utilisateur déguisées ou des invites cachées, ce qui nécessite un examen minutieux des outils tiers et des intégrations d’IA dans les flux de travail en contact avec les clients.
  • Les défenses traditionnelles restent importantes, mais l’IA est essentielle : Les cadres de sécurité doivent équilibrer les protections fondamentales, comme le MFA et la formation des employés, avec des analyses pilotées par l’IA capables de détecter et d’arrêter les attaques à la vitesse de la machine avant qu’elles n’aient un impact.

Alexander Procter

septembre 18, 2025

12 Min