Les recruteurs craignent que les outils de sélection de l’IA n’éliminent des candidats qualifiés
L’automatisation a transformé le recrutement, mais elle suscite autant de questions qu’elle n’apporte de réponses. De nombreux recruteurs pensent aujourd’hui que l’intelligence artificielle, bien qu’efficace, empêche les candidats compétents de passer la présélection. Ce n’est pas la peur de la technologie qui motive cette inquiétude, mais la précision. Lorsque les systèmes optimisent en fonction de mots-clés ou de paramètres rigides, ils peuvent exclure des personnes compétentes dont les antécédents ne cadrent pas parfaitement avec les modèles prédéfinis. Pour les dirigeants, cela signifie qu’il est nécessaire d’affiner la manière dont l’IA est intégrée, en veillant à ce que l’automatisation améliore le recrutement sans affaiblir la sélection des talents.
Le compromis entre rapidité et discernement n’est pas encore résolu. La plupart des entreprises adoptent le filtrage de l’IA pour traiter d’importants volumes de demandes, mais la supervision humaine est souvent à la traîne par rapport à l’automatisation. Les dirigeants doivent reconnaître que les algorithmes d’IA, bien que rapides, peinent à interpréter les nuances, des traits comme l’adaptabilité, le potentiel de leadership ou l’expérience transversale apparaissent rarement sous forme de données. À mesure que l’adoption se développe, assurer des boucles de rétroaction continues entre les recruteurs et les systèmes d’IA aidera à recalibrer les modèles et à réduire les faux négatifs.
Selon l’enquête menée par CV-Library au Royaume-Uni auprès de 424 recruteurs et employeurs et de 1 067 demandeurs d’emploi, 35 % des recruteurs ont déclaré que les outils d’IA leur faisaient manquer des candidats de qualité, et 27 % ont estimé que des candidats qualifiés étaient filtrés avant les entretiens. Ces chiffres révèlent un point faible du recrutement basé sur l’IA : les systèmes optimisent la forme au détriment du fond. Les dirigeants feraient bien de considérer cela comme un défi d’ingénierie, et non comme un échec du recrutement, d’aligner la prise de décision humaine et celle de l’IA et de combler le fossé de l’optimisation.
Les recruteurs considèrent l’IA comme efficace pour les tâches administratives, mais limitée pour l’évaluation du potentiel des candidats
Les recruteurs sont pragmatiques quant à la valeur ajoutée de l’IA. Elle excelle dans les tâches répétitives et fastidieuses, la rédaction de descriptions de postes, la planification d’entretiens, l’organisation de bases de données. Dans ces domaines opérationnels, l’IA offre des gains de productivité évidents et une précision à grande échelle. Mais lorsque la sélection se déplace en territoire humain, interprétant le ton, évaluant le style de communication, jugeant de l’adéquation, l’automatisation commence à s’affaiblir. Les dirigeants devraient considérer cela comme une limite de conception plutôt que comme un défaut : l’IA est un système de soutien, pas un substitut au jugement humain.
Les entreprises qui traitent l’IA comme un assistant, et non comme un décideur, constatent une meilleure qualité d’embauche. Les dirigeants doivent reconnaître que des qualités telles que le caractère, la curiosité et l’empathie ne se traduisent pas bien par des mesures algorithmiques. La recherche de l’efficacité ne peut pas remplacer la perception et l’intuition. Les systèmes les plus efficaces sont hybrides : l’IA s’occupe de la structure, les humains de la substance. L’intégration des recruteurs dans chaque couche du flux de travail numérique garantit que les candidats sont évalués à la fois quantitativement et contextuellement.
L’enquête de CV-Library montre une nette différence de fonctionnalité. Soixante-trois pour cent des recruteurs estiment que l’IA est la plus performante lorsqu’il s’agit de rédiger des descriptions de poste, et 38 % la jugent utile pour gérer la programmation des entretiens. Cependant, 72 % des recruteurs ont déclaré que l’IA avait du mal à identifier l’adéquation culturelle et 55 % l’ont jugée médiocre dans l’évaluation des compétences non techniques. Il s’agit là d’un décalage important. Les dirigeants qui souhaitent disposer d’un solide vivier de candidats doivent comprendre que l’automatisation n’est pas de l’intelligence, mais de l’efficacité. Sans calibration humaine, elle risque de produire des résultats rapides mais erronés.
Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.
Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.
Les demandeurs d’emploi perdent confiance dans les processus de recrutement pilotés par l’IA en raison d’un traitement perçu comme impersonnel.
L’intelligence artificielle modifie la manière dont les gens recherchent un emploi, mais de nombreux demandeurs d’emploi s’en méfient aujourd’hui. Le processus semble impersonnel, les candidatures disparaissent souvent dans des systèmes automatisés sans réponse ni retour d’information. Les candidats ont l’impression que l’IA les élimine avant même qu’un humain ne lise leur CV. Ce manque d’interaction réduit l’engagement et nuit à la confiance entre les employeurs et les candidats. Lorsque les individus cessent de croire que le système est équitable, les bons candidats se désengagent et la qualité globale du vivier de talents diminue.
Pour les chefs d’entreprise, il ne s’agit pas seulement d’un problème de recrutement, mais d’un problème de marque. La manière dont les entreprises traitent les candidats reflète leur culture et leurs valeurs. Si l’expérience d’embauche semble froide ou inaccessible, l’effet s’étend au-delà de l’acquisition de talents à la perception du public. L’amélioration de la transparence sur la manière dont l’IA est utilisée et sur l’implication des humains peut contribuer à rétablir la confiance. Les gens ne s’attendent pas à un processus totalement dépourvu d’humains ; ils attendent de l’équité et le sentiment que leur effort compte.
Les données de CV-Library sont claires. Cinquante-trois pour cent des demandeurs d’emploi pensent que l’IA a rejeté leurs candidatures sans aucun examen humain, 46 % identifient un rejet injuste comme une frustration majeure, et 40 % ont envisagé ou abandonné des candidatures à cause de l’automatisation. Ces chiffres révèlent un fossé croissant entre les objectifs d’efficacité et l’expérience humaine. Pour rétablir l’équilibre, il faut concevoir des flux de travail d’IA qui traitent les candidats comme des participants et non comme des points de données.
David, un barman à temps partiel qui a participé à l’enquête, a déclaré : « Passer un entretien avec un robot d’IA m’a semblé incroyablement aliénant, il n’y a pas de retour d’information ou d’interaction humaine, vous n’avez donc aucune idée de la façon dont vous vous présentez. » Ce commentaire capture un sentiment partagé par de nombreux candidats : l’automatisation sans connexion crée une distance émotionnelle qui nuit aux deux parties. Les dirigeants qui comprennent cela renforceront leur crédibilité en matière de recrutement.
Les jeunes générations, en particulier la génération z, sont plus sceptiques à l’égard de l’IA dans le processus de recrutement.
Les professionnels de la génération Z, en particulier, expriment de plus forts doutes quant au rôle de l’IA dans le recrutement. Ce sont des natifs du numérique, mais ils attendent de la technologie qu’elle leur rende des comptes et qu’elle soit équitable. Nombre d’entre eux considèrent que le rejet par l’IA est automatique et opaque. Cette perception n’est pas fondée sur la peur de l’innovation, mais sur leur attente de systèmes transparents, explicables et cohérents. Pour les dirigeants qui construisent des filières de talents à long terme, il est essentiel de répondre à cet état d’esprit. Si vous ne le faites pas, vous risquez d’éloigner des segments clés de la future main-d’œuvre.
Les jeunes candidats associent également le recrutement automatisé à un manque d’opportunités de démontrer leur potentiel. Ils veulent avoir la possibilité d’exprimer leur individualité et leur créativité, des caractéristiques souvent perdues dans les évaluations standardisées. Les systèmes de recrutement conçus sans points de contrôle humains risquent de décourager ces candidats avant même que l’engagement ne commence. Les équipes dirigeantes devraient se concentrer sur l’intégration de systèmes d’IA qui améliorent l’expression des candidats, et non qui la limitent.
Les résultats de CV-Library montrent à quel point ce fossé générationnel s’est creusé : 64 % des répondants de la génération Z soupçonnent l’IA d’avoir rejeté leurs candidatures lors de la présélection, et 53 % d’entre eux considèrent ce rejet injuste comme une frustration majeure. En comparaison, les inquiétudes sont moindres chez les Millennials (47 %) et la Génération X (46 %). Ces pourcentages soulignent un écart croissant entre les attentes et les attentes que les dirigeants ne peuvent ignorer. Pour y remédier, il faut de la transparence, une communication simple sur le processus de recrutement et l’assurance que les décideurs humains continuent à influencer les résultats.
Les dirigeants qui répondent de manière réfléchie au scepticisme de la génération Z auront un avantage. Cette génération apprécie l’authenticité et la clarté dans le comportement des entreprises. Lorsque les entreprises font preuve d’équité et maintiennent une communication ouverte, les jeunes talents sont plus susceptibles de faire confiance au processus et de rester engagés tout au long du parcours d’embauche.
La supervision humaine reste essentielle pour préserver l’équité et l’exactitude des recrutements assistés par l’IA.
L’IA est devenue un outil essentiel pour l’embauche, mais le jugement humain définit encore son succès. Les recruteurs signalent régulièrement que les systèmes automatisés n’ont pas la capacité d’interpréter les subtilités du comportement humain, de la motivation et de la dynamique interpersonnelle. Il s’agit là de caractéristiques essentielles pour la performance à long terme et l’alignement culturel, domaines dans lesquels l’automatisation reste limitée. Pour les dirigeants, la leçon est simple : L’IA peut soutenir l’embauche, mais elle ne peut pas remplacer la prise de décision humaine lorsque le contexte et l’intuition sont nécessaires.
Les dirigeants doivent veiller à ce qu’un contrôle humain soit exercé à chaque étape importante du processus. Cette supervision garantit l’équité, réduit les biais et permet de calibrer en temps réel les algorithmes susceptibles de s’écarter des objectifs de l’entreprise. Sans cette protection, l’automatisation risque de renforcer les préjugés hérités des données historiques. Un contrôle humain permanent permet d’éviter ce résultat et d’intégrer la responsabilité dans le système. Les organisations les plus avant-gardistes combinent l’efficacité des algorithmes avec une évaluation délibérée, menée par l’homme.
Lee Biggins, directeur général et fondateur de CV-Library, résume clairement la situation : « Les candidats ont depuis longtemps le sentiment que la touche humaine est en train de disparaître du processus d’embauche et que les bons éléments sont éliminés de manière injuste. » Son point de vue renforce un consensus croissant dans le secteur : la technologie doit amplifier l’intuition, et non la supprimer. Pour les cadres dirigeants, le maintien de cet équilibre garantit l’efficacité sans sacrifier la réputation ou la confiance des candidats. Les organisations qui y parviennent attireront de meilleurs talents et conserveront leur crédibilité sur des marchés concurrentiels.
CV-Library recommande des garde-fous pratiques pour améliorer le déploiement de l’IA dans l’embauche.
Pour réduire les risques liés au recrutement automatisé, CV-Library a défini une série de mesures de protection pratiques que toute équipe de direction peut mettre en œuvre. Ces mesures comprennent une supervision humaine claire, une communication ouverte avec les candidats sur l’utilisation de l’IA et des audits fréquents des algorithmes pour s’assurer que les erreurs ou les biais involontaires sont rapidement corrigés. Ces mesures établissent la responsabilité et la transparence, deux éléments essentiels pour une utilisation éthique et efficace de l’automatisation dans le recrutement.
Les dirigeants devraient concevoir l’IA non pas comme un décideur, mais comme un facilitateur de processus. L’objectif est d’aligner l’automatisation sur les valeurs de l’organisation et les priorités de l’entreprise. Cela signifie qu’il faut définir exactement les tâches qui se prêtent à l’automatisation, telles que l’ordonnancement ou le tri des données, et celles qui nécessitent une intervention humaine, en particulier celles qui font appel à la personnalité, à la créativité ou à des compétences non techniques. L’implication constante des recruteurs ajoute une couche de validation que l’IA, seule, ne peut pas fournir.
Les recommandations de CV-Library renforcent la nécessité d’axer le déploiement de l’IA sur l’efficacité administrative plutôt que sur l’évaluation finale des candidats. L’automatisation devrait s’occuper de la structuration et de l’exécution de routine, tandis que les professionnels humains évaluent les facteurs subjectifs tels que le potentiel et l’adéquation. En suivant ces principes, les dirigeants peuvent utiliser l’IA pour accélérer le recrutement sans compromettre le jugement ou l’équité. Cette approche permet non seulement de protéger l’intégrité du processus d’embauche, mais aussi de renforcer la confiance à long terme entre les candidats et les équipes d’embauche.
Principaux faits marquants
- L’IA risque d’éliminer les meilleurs talents : Les recruteurs signalent que les outils de présélection automatisés rejettent les meilleurs candidats avant les entretiens. Les dirigeants doivent veiller à ce que la supervision humaine fasse toujours partie du processus d’évaluation afin d’éviter les angles morts algorithmiques.
- L’automatisation fonctionne mieux pour les tâches administratives : Les recruteurs estiment que l’IA est efficace pour les offres d’emploi et la planification, mais qu’elle ne permet pas de juger de l’adéquation culturelle et des compétences non techniques. Les dirigeants doivent veiller à ce que l’IA se concentre sur les fonctions d’efficacité et non sur l’évaluation des candidats.
- La confiance des candidats dans l’IA diminue : Plus de la moitié des demandeurs d’emploi pensent que l’IA les rejette injustement et beaucoup abandonnent les candidatures en raison des processus impersonnels. Les dirigeants devraient améliorer la transparence sur l’automatisation et maintenir une communication directe avec les candidats.
- La génération Z exige l’équité et le contact humain : Les candidats les plus jeunes sont les plus sceptiques face aux rejets de l’IA et apprécient une évaluation claire et humaine. Les entreprises doivent adapter leurs systèmes de recrutement aux attentes de la génération Z en matière de responsabilité et d’ouverture.
- Le contrôle humain garantit l’équité et la qualité : Les recruteurs et les cadres s’accordent à dire que le jugement humain est essentiel pour évaluer l’adéquation culturelle et interpersonnelle. Les dirigeants devraient mettre en place des systèmes hybrides dans lesquels la technologie soutient, mais ne remplace jamais, l’intuition humaine.
- L’utilisation responsable de l’IA nécessite une structure et des audits : CV-Library préconise des audits réguliers, des points de contrôle humains explicites et une communication claire avec les candidats. Les décideurs devraient limiter l’automatisation aux tâches de routine et laisser les décisions d’embauche clés entre les mains des humains.
Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.
Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.


