Les escroqueries à l’emploi pilotées par l’IA constituent une menace pour l’intégrité de l’embauche

On ne s’attendrait pas à ce qu’un entretien d’embauche présente un risque pour la sécurité. Pourtant, c’est désormais le cas. Nous parlons d’opérations de fraude coordonnées utilisant l’IA générative pour simuler des personas entiers. générative pour simuler des personas entiers, masquer des identités et automatiser leur entrée dans votre organisation.Il s’agit d’opérations de fraude coordonnées qui utilisent l’IA générative pour simuler des personas entiers, masquer des identités et automatiser leur entrée dans votre organisation, puis percevoir des salaires tout en confiant le travail réel à de grands modèles de langage.

La mécanique s’affine. L’IA peut désormais générer des CV presque parfaits, adaptés à vos descriptions de poste. Les candidats frauduleux, souvent représentés par plusieurs personnes, apprennent ces détails juste assez bien pour se frayer un chemin à travers les entretiens. La menace ne se limite pas à des résultats médiocres dus à des embauches non qualifiées. Une fois dans l’entreprise, ces acteurs peuvent accéder à des outils et à des infrastructures sensibles. Cela ouvre la porte à des violations de données non détectées, au vol de propriété intellectuelle ou même à l’injection de logiciels malveillants.

Dans un cas récent, datant du début de l’année 2025, un directeur technique ayant plus de 30 ans d’expérience en matière de recrutement technique a dénoncé toute une opération de centre d’appels. Des dizaines de personnes simulaient des entretiens, faisaient tourner des acteurs à chaque tour, s’entraînaient à l’aide de manuels de jeu générés par l’IA et passaient d’une entreprise à l’autre sans que personne ne s’en aperçoive. Plus une entreprise recrute rapidement, plus elle est susceptible de laisser passer l’une de ces personnes.

Le point est clair : ce problème n’est pas théorique et il ne ralentit pas. Au contraire, il s’étend facilement. Ces escrocs ne se soucient pas de décrocher tous les emplois, il leur suffit de réussir 1 % du temps pour gagner de l’argent. Ce 1% est un problème de conseil d’administration.

Des signaux d’alerte reconnaissables lors d’un entretien peuvent indiquer une fraude de la part du candidat

Si l’embauche vous semble encore familière, ce n’est pas le cas. De nombreux comportements que nous considérions autrefois comme des bizarreries inoffensives lors des entretiens à distance sont aujourd’hui des indicateurs de tromperie. Les fraudeurs ne commettent pas toujours de grosses erreurs. La plupart des signes avant-coureurs sont subtils. Vous devez les rechercher.

Supposons que quelqu’un ait des problèmes de caméra mais insiste sur le fait qu’il s’agit d’un « problème technique ». Ils acceptent une réunion uniquement audio. Puis, lors de l’entretien avec le panel, ils sont soudain filmés, mais leurs mouvements ne sont pas naturels. Ils lisent quelque chose hors de l’écran. Leurs réponses semblent être des formules toutes faites. Ils s’arrêtent trop souvent avant de répondre à une question technique de base. Lorsqu’on leur demande de parler de leur propre expérience professionnelle, ils exposent des théories théoriques au lieu de raconter des histoires réelles avec des résultats.

Un responsable du recrutement de confiance a signalé un candidat lorsque ses antécédents ne correspondaient pas à l’environnement qu’il déclarait. Il disait être chez lui, mais le flux vidéo montrait des gens qui passaient constamment devant lui. Lorsqu’on leur a demandé d’éteindre l’arrière-plan numérique, ils ont refusé. Les candidats ne bougeaient pas leurs mains dans le cadre, probablement pour éviter de révéler des distorsions de type « deepfake ». Pris isolément, ces éléments ne signifient peut-être pas grand-chose. Ensemble, ils sont importants.

On constate également qu’ils éprouvent des difficultés lorsqu’on leur demande de décrire des cas d’utilisation spécifiques à l’aide de la méthode STAR (Situation, Tâche, Action, Résultat). Les vrais professionnels répondent avec une clarté contextuelle lorsqu’ils expliquent comment ils ont construit quelque chose ou résolu un problème. Les escrocs ? Ils se contentent de réponses abstraites, sans mesures ni délais.

C’est dans ce comportement subtil que les escroqueries commencent à s’effondrer. La compétence technique peut être répétée. L’expérience authentique, elle, ne peut pas l’être. Vous voulez détecter ces signaux d’alarme avant que la mauvaise personne embauchée ne commence à utiliser l’IA générative pour faire 100 % de son travail, ou pire, n’utilise vos systèmes comme un véhicule pour quelque chose de bien plus risqué.

Des questions d’entretien ciblées, basées sur des scénarios, permettent de démasquer efficacement les candidats frauduleux.

La détection ne nécessite pas de systèmes élaborés. Pour l’instant, votre meilleur outil est le dialogue, et plus précisément la façon dont vous structurez et enchaînez vos questions. Le moyen le plus rapide de démasquer un escroc est de remettre en question sa version de la réalité. Commencez par un élément de son CV, puis passez à une hypothèse connexe mais erronée. S’il a dit qu’il travaillait exclusivement avec AWS, demandez-lui de vous parler d’un déploiement Azure qu’il a dirigé. Un candidat légitime vous corrigera immédiatement. Un candidat frauduleux essaiera d’improviser, généralement avec des explications incohérentes ou génériques.

Cette méthode fonctionne parce que les réponses préparées à l’avance s’effondrent rapidement sous la pression. Vous obligez le candidat à aller au-delà des scripts. Les actions et les décisions qui sous-tendent le travail antérieur d’une personne sont difficiles à simuler lorsqu’elles sont approfondies. Un directeur technique a expliqué avoir utilisé cette stratégie à plusieurs reprises jusqu’à ce qu’un prétendu ingénieur chevronné appuie sur le frein au milieu de l’entretien. Lorsqu’il a été démasqué, l’un d’entre eux a admis ouvertement qu’il faisait partie d’une équipe qui dépouille les annonces d’emploi, génère des CV rédigés par l’IA, affecte des acteurs aux entretiens, puis automatise le travail une fois qu’ils ont été embauchés.

L’idée est de valider que les candidats sont capables de fonctionner dans l’incertitude, de penser de manière critique et de s’engager dans les mécanismes d’un projet réel. L’IA peut prétendre faire cela pendant un certain temps, mais elle ne peut pas reproduire la profondeur ou la mémoire musculaire acquises grâce à l’expérience réelle.

Si la personne que vous interviewez ne peut survivre à un écart structuré dans votre questionnement, vous ne vous adressez pas au professionnel qui a rédigé son CV. Vous parlez à quelqu’un qui joue un rôle qu’il comprend à peine.

De meilleurs protocoles d’embauche et une meilleure formation sont essentiels pour atténuer la fraude induite par l’IA.

Ce problème ne disparaîtra pas avec une seule tactique d’entretien intelligente. Vous avez besoin d’un processus, que l’ensemble de votre équipe de recrutement comprend et exécute avec discipline. Formez vos collaborateurs à repérer les comportements qui suggèrent une performance coachée ou une présence falsifiée. Veillez à la transparence des caméras. Si un candidat refuse d’éteindre un arrière-plan virtuel ou de montrer les mouvements de base de la tête et des mains sur la vidéo, considérez cela comme une grave rupture de confiance.

Ne permettez pas les entretiens passifs. Engagez directement la conversation. Commencez chaque session en demandant au candidat d’où il appelle. C’est simple, mais instructif. Passez ensuite rapidement à un dialogue technique ou basé sur un scénario. Demandez aux candidats de s’engager sur les outils et les environnements qu’ils ont déclaré utiliser. Validez leur raisonnement, les raisons pour lesquelles ils ont choisi des technologies spécifiques, les compromis qu’ils ont faits, la manière dont ils ont surmonté les contraintes. Insistez sur les détails.

Pour les rôles techniques, remplacez les défis de code traditionnels par des exercices en direct. Organisez des sessions de travail ou des tâches de programmation en binôme avec des membres de l’équipe en qui vous avez confiance. Observez leur façon de penser en temps réel. Cet engagement immédiat permet de savoir s’ils comprennent l’architecture et la logique qu’ils prétendent avoir construites.

De même, relisez vous-même les CV avant l’entretien. Ne confiez pas cette tâche à des filtres ou à du personnel subalterne. Connaissez l’historique, la chronologie et les principales affirmations. C’est ainsi que vous pourrez déceler des contradictions subtiles, comme le fait de revendiquer la propriété d’un déploiement dans une entreprise qui n’existait pas pendant la durée du projet.

Les dirigeants ne peuvent pas se permettre de traiter le recrutement comme un processus d’arrière-plan. Le risque va au-delà de la productivité. Si le mauvais acteur accède à vos systèmes internes, en particulier à grande échelle, le résultat est plus qu’une inefficacité. Il s’agit d’une exposition. Votre défense commence par la manière dont vous recrutez.

Les implications plus larges de la fraude à l’embauche basée sur l’IA pourraient mettre en péril le travail à distance

L’augmentation des escroqueries à l’embauche fondées sur l’IA a mis en évidence une vulnérabilité dans la manière dont les organisations abordent le travail à distance. Si l’on n’y remédie pas, cela pourrait détourner l’attention des équipes distribuées et réduire à néant les progrès accomplis en matière d’accès à l’embauche au niveau mondial. Le problème ici n’est pas travail à distance lui-même. Il s’agit de la faiblesse des méthodes de vérification, aggravée par l’évolutivité de l’IA.

Les entretiens en personne réduisent naturellement le risque d’usurpation d’identité. Vous voyez à qui vous parlez. Les réunions à distance brouillent cette certitude. Cette ambiguïté est désormais exploitée par des opérations de fraude hautement coordonnées. Il ne s’agit pas d’incidents isolés. Ils opèrent en masse, simulent des entretiens, volent des rôles et automatisent des tâches sans être détectés. Il n’est pas nécessaire d’avoir un taux de réussite élevé pour faire bouger les choses. Un pour cent suffit si cela se produit à grande échelle.

Pour les sociétés cotées en bourse ou les entreprises possédant une propriété intellectuelle de grande valeur, cela devient un facteur de risque qui touche à l’exposition juridique, à la fuite de la concurrence et à la confiance des actionnaires. La fraude à l’embauche entraîne des retards dans les livrables, une dégradation de la qualité et l’introduction dans votre infrastructure d’acteurs potentiels aux intentions hostiles. Si ce candidat manipule du code sensible, des données financières ou des systèmes clients protégés, toute compromission peut se répercuter bien au-delà de l’équipe d’ingénieurs.

Cependant, nous ne devons pas renoncer à l’embauche à distance. Nous devons le faire évoluer. Le renforcement du processus d’entretien, la mise en œuvre de contrôles délibérés et la formation des équipes de recrutement à la lutte contre la tromperie numérique peuvent préserver la flexibilité du travail à distance, sans que votre entreprise ne devienne une cible.

L’accès à de grands talents ne devrait pas nécessiter de compromis. Mais s’appuyer sur des modèles d’embauche dépassés, ou supposer que les environnements distants fonctionnent comme des environnements physiques, crée des risques inutiles. Les capacités de l’IA continuent d’évoluer, tout comme les processus qui déterminent à qui vous faites confiance pour opérer au sein de vos systèmes. Ignorez cela, et le risque s’aggrave. Abordez-le maintenant, et vous garderez une longueur d’avance.

Principaux faits marquants

  • Les fraudes à l’embauche basées sur l’IA se développent rapidement : Les opérations de fraude utilisent désormais l’IA pour générer des CV, coacher de faux candidats et infiltrer les entreprises, certaines automatisant même le travail après l’embauche. Les dirigeants doivent considérer ce phénomène comme un risque pour la sécurité
  • Le repérage des candidats ingénieurs nécessite de nouveaux signaux : Les signaux d’alerte courants, tels que les entretiens uniquement audio, les réponses génériques et les réponses différées, indiquent souvent l’implication d’une IA ou une usurpation d’identité. Les équipes de recrutement doivent être formées à identifier ces schémas à un stade précoce.
  • Des questions intelligentes permettent de révéler rapidement les faiblesses de l’usurpation d’identité : Les questions basées sur des scénarios qui obligent les candidats à s’écarter du script sont très efficaces pour révéler les incohérences. Les cadres doivent demander aux responsables du recrutement de tester l’authenticité des candidats à l’aide de questions techniques mal ciblées ou superposées.
  • Les processus d’embauche doivent être immédiatement améliorés : Exigez des contrôles vidéo en temps réel, un examen plus approfondi des CV et des évaluations techniques en direct pour valider l’identité et les compétences. Les entreprises doivent former l’ensemble de leurs équipes de recrutement à reconnaître les indicateurs de fraude afin de se prémunir contre les risques internes.
  • Le travail à distance n’est pas le problème : les escroqueries à l’IA exploitent les faiblesses des modèles d’entretien, et non le travail à distance lui-même. Les dirigeants devraient affiner les méthodes d’embauche numérique pour préserver l’accès aux talents mondiaux tout en prévenant les risques critiques en matière d’infrastructure, de sécurité et de confiance dans la marque.

Alexander Procter

mai 6, 2025

11 Min