Tous les professionnels de la cybersécurité doivent avoir une compréhension fondamentale de l’IA.

Il ne fait aucun doute que les équipes de cybersécurité doivent aujourd’hui comprendre l’IA. Il s’agit simplement de savoir ce qu’il y a sous le capot. Qu’est-ce qu’un grand modèle linguistique ? Qu’est-ce que l l’IA générative générative ? Qu’est-ce que cela signifie lorsque nous disons que ces systèmes « apprennent », et comment sont-ils utilisés dans le monde réel ? Voilà le niveau de clarté dont les professionnels de la cybersécurité ont besoin pour aller de l’avant.

L’IA affecte déjà tout dans cet espace, la détection des menaces, l’analyse du comportement, les réponses à la fraude et la façon dont nous gérons l’automatisation dans les systèmes de défense. Dans le même temps, les attaquants utilisent des outils d’IA pour un phishing plus sophistiqué, des deepfakes et l’évitement de la détection. La réalité est la suivante : L’IA vient de changer la donne. Si vous voulez y jouer, vous devez au moins en connaître les règles. Toute personne chargée de sécuriser les actifs numériques d’une entreprise doit comprendre comment l’IA s’inscrit dans le problème et la solution.

Il ne s’agit plus d’un cours facultatif. C’est une exigence, à un niveau pratique. Non pas parce que cela fait bien sur un diaporama, mais parce que les systèmes dont nous dépendons pour notre protection intègrent désormais l’IA. Pour gérer intelligemment cet environnement, il est essentiel de comprendre ce que le système fait avec vos données, quelles décisions d’IA sont prises en votre nom et d’où proviennent les risques.

Les chefs d’entreprise doivent prendre cette lacune au sérieux. Vous n’avez pas besoin d’une immersion totale dans l’IA au sein de votre organisation, mais vous avez besoin d’une sensibilisation généralisée à l’IA. Il s’agit d’aligner vos équipes sur le terrain numérique émergent. Lorsque les dirigeants fixent cette norme, ils indiquent qu’ils sont prêts à aller de l’avant.

Selon une étude récente, 70 % des professionnels de la technologie s’inquiètent de la sécurité de leur emploi en raison de l’évolution rapide de l’IA. Si vos équipes craignent d’être remplacées par l’IA, elles devraient s’efforcer d’apprendre à travailler avec elle.

Une expertise technique approfondie en matière d’IA n’est pas nécessaire pour la plupart des postes dans le domaine de la cybersécurité

Soyons clairs : les professionnels de la cybersécurité ont rarement besoin de maîtriser l’ingénierie de l’IA. Vous n’avez pas besoin d’écrire le code d’apprentissage des modèles, de comprendre la rétropropagation ou d’affiner les réseaux neuronaux pour réussir dans ce domaine. Il s’agit là d’un rôle distinct. Et la création de modèles d’IA n’est pas l’objet de la plupart des travaux en matière de cybersécurité. Il s’agit plutôt de comprendre comment ces modèles sont appliqués, les risques qu’ils présentent et les façons dont ils peuvent être manipulés, tant par des systèmes internes que par des attaquants externes.

Le danger réside souvent dans la surcomplication. Si vous surchargez vos équipes de sécurité avec une profondeur d’IA inutile, vous créez du bruit là où le signal est nécessaire. Concentrez-les sur les connaissances au niveau de la décision. Aidez-les à voir comment les outils d’IA sont utilisés dans leur flux de travail, quelles sont les vulnérabilités qu’ils introduisent et comment les attaquants utilisent ces capacités. Ce type de contexte permet d’agir plus intelligemment et plus rapidement.

Les connaissances de haut niveau, comme la capacité de l’IA à reconnaître les formes, à détecter les anomalies et à automatiser, suffisent pour 90 % des postes. Le reste ? Laissez les vrais ingénieurs en IA s’en occuper. De même que nous ne demandons pas aux équipes réseau de construire des systèmes d’exploitation, nous ne devrions pas demander à chaque professionnel de la cybersécurité d’agir comme un scientifique de l’IA.

Les dirigeants n’ont pas besoin de se préoccuper de la mise à l’échelle de la formation à l’IA profonde dans tous les départements. C’est inefficace et peu ciblé. Il faut plutôt concevoir la sensibilisation à l’IA comme une extension stratégique de vos capacités existantes en matière de cybersécurité. Investissez dans la maîtrise, pas dans la spécialisation. Laissez vos experts faire leur travail et donnez-leur le contexte dont ils ont besoin pour intégrer les connaissances en matière d’IA là où elles sont pertinentes et exploitables. L’efficacité l’emporte toujours sur la suréducation.

Les personnes qui s’intéressent de près à l’IA sont encouragées à explorer cette technologie plus en profondeur.

Si l’IA vous intéresse vraiment, c’est le moment d’aller plus loin. Il se passe beaucoup de choses, rapidement, et les outils, les modèles et les cas d’utilisation évoluent rapidement. Si vous travaillez dans le domaine de la cybersécurité et que vous souhaitez comprendre comment les systèmes sont construits, entraînés et mis à l’échelle, suivez cette voie. Comprenez le fonctionnement interne des transformateurs, plongez dans les pratiques de traitement des données et explorez le comportement des modèles adverses.

Il n’y a pas d’inconvénient à en savoir plus. Alors que l’IA continue de fusionner avec l’infrastructure de sécurité, ceux qui possèdent une expertise avancée se situeront à l’intersection de l’innovation et de la protection. Cela a un impact. Les entreprises ont besoin de personnes capables de faire le lien entre les paysages de menaces pratiques et la profondeur technique. Vous vous positionnerez non seulement pour une contribution technique, mais aussi pour une influence stratégique plus large.

La plupart des fonctions n’exigent pas un tel niveau d’implication, mais si vous êtes motivé par la curiosité ou l’orientation, il y a du travail de fond à faire. Ce type de développement autonome n’est pas seulement précieux, il permet de former des dirigeants prêts pour l’avenir.

Nuance à prendre en compte : La direction doit reconnaître et encourager les membres de l’équipe qui poursuivent de leur propre chef des études plus approfondies sur l’IA. Ce sont les futurs spécialistes. Mais le soutien doit être structuré, avec des délais, un budget et un champ d’application clairs. Restez en phase avec les responsabilités principales tout en leur donnant la possibilité d’acquérir des compétences à long terme. Ne surchargez pas tout le monde avec ces tâches ; mettez en valeur ceux qui s’y épanouissent vraiment tout en gardant l’ensemble du personnel concentré et efficace.

Les outils d’IA peuvent rationaliser les tâches quotidiennes de cybersécurité et améliorer la productivité.

L’IA n’est plus théorique à ce stade. Elle se manifeste déjà de manière très pratique, en automatisant les tâches répétitives, en aidant à la documentation, en résumant les politiques des fournisseurs tiers et en permettant une communication précise. Habituez-vous. Si vos équipes n’utilisent pas déjà des outils d’IA pour se décharger des tâches à faible valeur ajoutée, c’est qu’elles sont à la traîne.

Par exemple, les plateformes GRC intègrent l’IA qui peut aider à faire correspondre le langage de sécurité d’un fournisseur à vos normes internes. Auparavant, cela prenait des heures. Aujourd’hui, cela prend quelques minutes. Rédiger des projets de politiques, résumer les incidents pour différents publics et automatiser les explications fastidieuses par courriel, ces choses devraient déjà se produire dans vos flux de travail.

Lorsque les équipes adoptent l’IA de manière pratique, elles sont obligées de comprendre comment la technologie fonctionne. Cela se répercute sur leur compréhension des risques. Plus une personne sait ce que l’IA peut faire, plus elle évaluera efficacement son application dans les environnements de sécurité, en particulier lorsque des acteurs menaçants l’utilisent également.

Nuance à prendre en compte : En tant que dirigeant, veillez à ce que vos attentes restent raisonnables. Les outils d’IA ne vont pas réparer les processus défaillants. Mais ils permettront de réduire considérablement les flux de travail improductifs s’ils sont déployés de manière intentionnelle. Évitez de rendre l’utilisation de l’IA facultative, elle devrait être standard dans les opérations où des gains mesurables existent déjà. Suivez l’adoption et la valeur des résultats. C’est ainsi que vous augmenterez l’efficacité sans perdre le cap.

Une familiarité de haut niveau avec l’IA est comparable à l’utilisation d’outils de cybersécurité complexes sans en maîtriser les rouages.

Il n’est pas nécessaire de comprendre tous les détails techniques de l’IA pour l’utiliser efficacement dans le domaine de la cybersécurité. De la même manière que la plupart des professionnels utilisent des systèmes de détection des points finaux ou des filtres de phishing sans savoir exactement comment le code a été écrit, ils peuvent également utiliser des outils basés sur l’IA. outils basés sur l’IAet gérer les risques qui y sont associés, sans savoir comment construire les modèles à partir de zéro.

Ce qu’il faut, c’est clarifier la fonction, l’impact et l’exposition. Si un outil utilise l’IA pour signaler des anomalies ou évaluer le risque comportemental, votre équipe doit savoir ce qu’il fait, quelles données il traite et ce que signifient les résultats. C’est ce qui importe dans les opérations quotidiennes. Les algorithmes internes et les étapes de formation peuvent être laissés aux équipes et aux fournisseurs qui développent la technologie. Il ne s’agit pas de faire de l’ingénierie inverse de l’IA, mais de prendre des décisions plus intelligentes et plus rapides sur la manière dont vous l’utilisez et sur les risques que vous acceptez en le faisant.

L’ingénierie excessive des connaissances de votre équipe finit par brûler des cycles que vous devriez allouer à l’exécution. La maîtrise de haut niveau, la compréhension des capacités, des limites, des vecteurs d’attaque et des fonctionnalités de haut niveau sont des connaissances fonctionnelles. C’est ce qui rend la stratégie efficace et permet de détecter rapidement les menaces qui se profilent à l’horizon.

Nuance à prendre en compte : Au niveau de la direction, c’est ici que vous calibrez les attentes de votre organisation en matière d’IA. Résistez à l’envie de sur-structurer la formation à l’IA. Définissez ce que sont les connaissances fonctionnelles pour vos équipes, puis exigez-les. Insistez sur la clarté du fonctionnement des outils et élaborez une politique relative à leur utilisation en toute sécurité. Il ne s’agit pas d’élever le plafond technique. Il s’agit d’accroître la sensibilisation opérationnelle à tous les niveaux. C’est ce qui renforcera votre posture de sécurité sans mauvaise allocation des ressources.

Faits marquants

  • La connaissance de l’IA est une exigence de base : Les professionnels de la cybersécurité doivent avoir une compréhension pratique des concepts de l’IA tels que les LLM, l’IA générative et les vecteurs d’attaque typiques. Les dirigeants doivent s’assurer que les équipes peuvent comprendre l’impact de l’IA sur les menaces, les outils et les défenses.
  • Ne pas sur-former à l’IA profonde : la plupart des postes en cybersécurité ne requièrent pas d’expertise dans le développement de modèles d’IA. Concentrez les budgets de formation sur la maîtrise des opérations, et non sur les connaissances techniques approfondies, afin de maintenir l’efficacité et la pertinence des équipes.
  • Soutenez l’apprentissage profond pour les experts motivés : Les professionnels motivés pour approfondir l’IA doivent bénéficier de temps et de ressources. Cela permet de développer l’expertise interne tout en maintenant l’équilibre et la concentration au sein de l’équipe.
  • Faire de l’outil d’IA une norme dans les flux de travail quotidiens : Encouragez l’adoption d’outils d’IA qui rationalisent la rédaction des politiques, l’évaluation des risques et la communication. Les dirigeants devraient guider les équipes opérationnelles pour qu’elles intègrent l’IA dans des tâches reproductibles et à fort impact.
  • Les connaissances pratiques l’emportent sur la maîtrise technique : Savoir ce que l’IA peut faire et où elle ajoute du risque est suffisant pour la plupart des fonctions. Les dirigeants devraient donner la priorité à la sensibilisation fonctionnelle à l’IA au sein des équipes plutôt que de surinvestir dans la formation technique.

Alexander Procter

mai 18, 2025

10 Min