Les entretiens virtuels trichés par l’IA entraînent un retour à l’embauche en personne
Les entretiens à distance sont devenus la norme pour des raisons évidentes de rapidité, d’accessibilité et d’échelle. Ces avantages se sont accompagnés d’une contrepartie : des risques accrus de fraude de la part des candidats. La facilité d’accès à des outils tels que ChatGPT permet à des candidats non qualifiés de se présenter comme des experts. Certains vont même plus loin, en utilisant la manipulation vidéo ou la technologie « deepfake » pour se faire passer pour quelqu’un d’autre..
Les entreprises réagissent. Une récente enquête de Gartner a révélé que 72,4 % des responsables du recrutement privilégient désormais les entretiens en personne pour lutter contre ce qu’ils appellent la « fraude au candidat ». Pour les dirigeants, cette situation nuit à la fidélisation, à la productivité et à la confiance dans la marque. Plus l’IA progresse, plus la fraude devient sophistiquée. Et le seul moyen de garder une longueur d’avance est d’adapter le processus plus rapidement que la menace n’évolue.
Google, Cisco et McKinsey ont intégré les entretiens en personne dans leur arsenal de vérification. Il ne s’agit pas de nostalgie, mais simplement d’atténuer les risques liés aux performances. L’objectif est simple : s’assurer que la personne que vous rencontrez est capable, responsable et qu’elle est bien celle qu’elle prétend être.
Attendez-vous à ce que cette tendance se développe. Elle ne remplacera pas entièrement le virtuel, mais elle deviendra un élément standard des systèmes de recrutement intelligents, en particulier pour les postes techniques ou en contact avec la clientèle. Si vous ne le faites pas encore, commencez dès maintenant.
Les entretiens en personne révèlent mieux les qualités humaines
Il n’existe pas aujourd’hui de logiciel, IA ou non, capable de mesurer pleinement le jugement, l’empathie ou l’intégrité. Ces qualités déterminent la capacité d’une personne à diriger, à résoudre des conflits, à prendre des décisions ou à collaborer au sein d’une équipe. Elles n’apparaissent pas dans un curriculum vitae ou dans une série de questions-réponses assistées par l’IA. Il faut interagir avec la personne pour s’en rendre compte.
McKinsey l’a bien dit : les entretiens en face à face permettent de révéler les forces humaines que l’on ne peut pas reproduire avec n’importe quelle technologie. Il s’agit de les utiliser parallèlement à ce que les gens font toujours le mieux : se connecter, comprendre, penser de manière autonome.
Les entretiens en personne créent un cadre dans lequel ces caractéristiques apparaissent naturellement. Vous voyez comment un candidat réagit sous la pression, comment il raisonne à haute voix, comment il s’engage en temps réel. Ces signaux ne sont pas disponibles dans des réponses toutes faites, assistées par l’IA.
Les dirigeants qui ont à cœur de construire des organisations résilientes et centrées sur l’humain devraient en faire une priorité. À mesure que les rôles évoluent vers la créativité, l’adaptabilité et l’intelligence émotionnelle, ces compétences difficiles à mesurer sont le moteur de la performance. Utilisez l’IA pour ce qu’elle sait faire, à savoir traiter les données et accélérer les flux de travail. Faites confiance aux humains pour reconnaître d’autres humains.
En bref : les machines ne peuvent pas faire cette partie à notre place. Elles ne devraient pas le faire non plus.
Des stratégies de vérification à plusieurs niveaux pour lutter contre la fraude aux entretiens
Alors que la tromperie par l’IA devient de plus en plus courante, les entreprises passent de défenses à une seule couche, comme poser les bonnes questions, à des systèmes de vérification complets. Vous avez besoin de plus d’une ligne de défense. Les entretiens en personne sont utiles, mais ils ne suffisent pas. Les candidats sont de plus en plus habiles à déjouer le processus. Cela signifie que les entreprises doivent elles aussi devenir plus intelligentes.
Les principales organisations combinent désormais plusieurs méthodes pour réduire la fraude. Il s’agit notamment du filtrage technique, de la vérification des antécédents, des contrôles d’identité en temps réel et de la surveillance de la géolocalisation. Certaines plateformes assurent le suivi de la cohérence des dispositifs de connexion et des emplacements. D’autres recoupent les calendriers d’activité et les soumissions d’informations d’identification. Il ne s’agit pas de surveiller tout ce que fait un candidat, mais de vérifier ce qui compte avant d’embaucher.
Emi Chiba, de Gartner, a souligné que la superposition de ces systèmes permet une meilleure détection des fraudes sans ralentir la vitesse d’embauche. Les outils de vérification de l’identité ont évolué. Un responsable du recrutement peut désormais demander à un candidat de prendre un selfie avec son téléphone, puis de l’authentifier par rapport à une pièce d’identité émise par le gouvernement tout en vérifiant les données de localisation. Si les détails ne concordent pas, le processus est signalé avant même le début de l’entretien.
Ce niveau de contrôle n’est plus facultatif pour les postes à risque, les postes dans la technologie, la finance, les soins de santé et les postes en contact avec la clientèle. Il s’agit d’une priorité opérationnelle. Si votre système actuel ne le prend pas en charge, vous mettez en péril les performances à long terme au profit d’une commodité à court terme.
Intégration sélective de l’IA dans les entretiens pour une simulation d’emploi réaliste
Certaines entreprises ne se contentent pas de se défendre contre l’IA, elles l’adoptent là où elle est utile. Dans certains secteurs, notamment le génie logiciel, l’IA est désormais au cœur du travail lui-même. Les pratiques de recrutement commencent à en tenir compte. Il ne s’agit pas d’un recul, mais d’un progrès. Si le poste exige une maîtrise de l’IA, laissez les candidats démontrer leur capacité à l’utiliser au cours de l’entretien.
TEKsystems et Meta vont dans cette direction. Ils comprennent que les ingénieurs d’aujourd’hui construisent avec des systèmes d’IA, déboguent avec des outils d’IA et optimisent les flux de travail à l’aide d’informations générées par des machines. L’évaluation de ces compétences indépendamment de l’IA ne fournit pas de données utiles. Elle teste un ensemble de compétences qui n’est plus d’actualité.
Armando Franco, directeur de la modernisation des technologies chez TEKsystems Global Services, a déclaré que l’autorisation de l’IA dans les entretiens de codage « n’est pas seulement une nouveauté, c’est une fatalité ». C’est la réalité autour de laquelle les entreprises conçoivent aujourd’hui leurs systèmes de recrutement. L’entretien devient un terrain d’essai non pas pour la mémoire, mais pour les capacités dans des environnements complexes et intégrés à la technologie.
Mais il ne s’agit pas d’une liberté totale. L’IA doit être activée au bon moment, dans les bonnes conditions, avec des directives claires. Il incombe aux recruteurs et aux responsables de l’embauche de fixer ces limites au préalable. L’objectif est d’écarter les candidats non qualifiés, et non ceux qui savent comment travailler avec les machines qu’ils utiliseront quotidiennement dans le cadre de leur travail.
Si vous pensez à long terme, il est absurde de construire des systèmes de recrutement pour un lieu de travail qui n’existe plus.
L’utilisation croissante de l’IA par les demandeurs d’emploi exige des limites éthiques
Les demandeurs d’emploi utilisent l’IA plus que jamais, et la tendance s’accélère. Ils l’utilisent pour rédiger des CV, produire des lettres de motivation et se préparer aux entretiens. C’est efficace et cela leur donne un avantage, jusqu’à un certain point. Le point de basculement se situe au moment où l’IA cesse d’être un outil d’assistance et commence à se substituer aux compétences réelles. C’est à ce moment-là que l’intégrité de l’embauche est mise à mal.
Les rapports de ZipRecruiter montrent où se dirige le comportement des candidats. L’utilisation de l’IA pour aider à la rédaction des CV a augmenté de 39% l’année dernière, les lettres de motivation générées par l’IA ont augmenté de 41%, et l’entraînement aux entretiens grâce à l’IA a grimpé de 44%. Lorsqu’elle est utilisée correctement, il s’agit d’un gain de productivité. Mais lorsque les candidats s’appuient sur l’IA pour fabriquer des compétences ou présenter une compréhension erronée, le processus devient défectueux. Vous embauchez un produit qui appartient à une machine.
Sam DeMase, expert en carrière chez ZipRecruiter, a été très clair. Les candidats qui ont utilisé l’IA de manière honnête et stratégique ont reçu deux fois plus d’offres, alors qu’ils n’ont postulé qu’à 40 % de postes supplémentaires. Le message est simple : l’utilisation de l’IA pour renforcer l’authenticité fonctionne. L’utiliser pour simuler des compétences ne fonctionne pas.
En tant que dirigeant, vous devez encourager la transparence. Établissez des politiques claires qui définissent ce qu’est une utilisation responsable de l’IA au cours du processus d’embauche. Assurez-vous que les candidats savent où s’arrête le soutien à l’IA et où commence la responsabilité personnelle. Si vous ne contrôlez pas la norme, quelqu’un d’autre le fera, et ce n’est généralement pas la personne que vous voulez voir diriger votre stratégie d’acquisition de talents.
La frontière entre préparation et tromperie dans l’utilisation de l’IA
L’un des plus grands défis de l’embauche assistée par l’embauche assistée par l’IA est d’ordre éthique. Il n’y a souvent pas de frontière évidente entre la préparation et la tromperie. Un candidat peut croire qu’il se prépare en utilisant l’IA pour structurer ses réponses, mais lorsque ces réponses dénaturent ses véritables connaissances ou capacités, la limite est franchie.
C’est pourquoi la définition et la communication sont importantes. Lindsey Zuloaga, Chief Data Scientist chez Hirevue, l’a clairement énoncé : « Nous définissons la tricherie comme des actions trompeuses ou malhonnêtes prises par un candidat pour déformer ou embellir ses connaissances, ses compétences, ses capacités ou son potentiel. » Il ne suffit pas de savoir que les candidats utilisent l’IA. Vous devez savoir comment, quand et pourquoi.
Les données de Hirevue confirment que les outils d’IA générique tels que ChatGPT ont tendance à sous-performer dans les essais d’emploi en temps réel. Ils n’obtiennent que des résultats moyens dans les évaluations notées par l’IA. Cela renforce une idée utile, à savoir que les candidats qualifiés sont toujours plus performants que les données générées par l’IA. La solution n’est donc pas une interdiction totale. C’est une question de clarté. Définissez ce qui constitue une utilisation éthique. Partagez vos attentes avant de commencer toute évaluation. Construisez des systèmes qui récompensent les compétences réelles, et non la maîtrise de l’automatisation.
Pour les dirigeants, il s’agit d’une question de gouvernance à long terme. Si vous voulez des évaluations précises, vous avez besoin de systèmes de recrutement transparents. Cela signifie que les candidats doivent connaître les règles et les appliquer de manière cohérente. Il ne s’agit pas d’éliminer l’IA du processus. Il s’agit de s’assurer que le processus mène à des embauches honnêtes et qualifiées.
Définir les limites du double rôle de l’IA dans l’embauche
L’IA joue désormais un double rôle dans l’embauche. Elle permet de rationaliser les évaluations, d’identifier les candidats qualifiés et d’automatiser les premières étapes de la prise de décision. En même temps, elle ouvre la porte à des abus lorsque les candidats l’appliquent sans transparence. Cette dualité signifie que les organisations ne peuvent plus se permettre d’avoir des politiques vagues. Les dirigeants doivent définir où, comment et quand l’utilisation de l’IA est autorisée, des deux côtés du processus de recrutement.
L’incohérence des attentes est un problème croissant. Certaines équipes autorisent les outils alimentés par l’IA pendant les phases d’application. D’autres ne clarifient pas du tout leur position. Cette lacune crée de la confusion, ce qui augmente le risque d’atteinte à la réputation, de mauvaises décisions d’embauche et de frictions avec des candidats qualifiés qui ont suivi des règles peu claires. Des limites claires évitent ces frictions et accélèrent la prise de décision à grande échelle.
Emi Chiba, analyste des technologies RH chez Gartner, a insisté sur ce point : « La meilleure stratégie pour les organisations est d’avoir des communications transparentes et cohérentes sur les attentes en matière d’utilisation de l’IA tout au long du processus de recrutement et au sein de l’organisation elle-même. » Sans cette clarté, les candidats continueront à tester les limites et les recruteurs perdront du temps à signaler des comportements qui auraient dû être traités de manière préventive.
Pour les équipes dirigeantes, il ne s’agit pas seulement d’une question tactique, mais d’une priorité stratégique. Elle affecte les performances en matière d’acquisition de talents, la conformité, l’intégrité de la marque et l’efficacité opérationnelle. La précision de la politique mène directement à la performance de l’exécution. Définissez dès maintenant ce que votre organisation autorise en matière d’embauche assistée par l’IA. Si vous attendez, les normes seront fixées pour vous, par les candidats, les concurrents ou les outils eux-mêmes. Et ces résultats se traduisent généralement par des correctifs réactifs, et non par des solutions proactives.
Réflexions finales
L’IA n’est plus une considération future, elle façonne déjà la façon dont les gens postulent, évaluent et sont embauchés. Cette évolution est porteuse d’opportunités, mais aussi de risques. Les entreprises intelligentes ne rejettent pas l’IA. Elles établissent des règles claires, renforcent la surveillance humaine et resserrent la vérification là où cela compte.
Les dirigeants doivent traiter cette question comme une priorité stratégique et non comme un détail opérationnel. La fraude à l’embauche a un impact sur la qualité, la sécurité et les performances à long terme de l’équipe. S’appuyer uniquement sur des processus virtuels sans mettre à jour les mesures de protection laissera des fissures dans votre pipeline de recrutement, et les concurrents agiront plus rapidement pour combler les leurs.
Les entreprises qui gardent une longueur d’avance font deux choses bien : elles construisent des systèmes de défense en couches qui empêchent la fraude sans ralentir l’embauche, et elles utilisent l’IA de manière éthique pour accélérer les bonnes parties du processus. Elles réintroduisent également le contact humain là où il apporte le plus de valeur ajoutée.
En bref, ne laissez pas les outils dicter vos normes de recrutement. Définissez comment vous allez diriger dans ce nouveau paysage. C’est cette clarté qui vous permettra de maintenir la qualité à un niveau élevé, de réduire les risques et de conserver une longueur d’avance.