Une majorité de managers utilisent désormais l’IA générative pour prendre des décisions cruciales en matière de personnel.
Le changement dans la manière dont les organisations prennent des décisions liées au personnel est en bonne voie. La plupart des managers ne se fient plus uniquement à leur expérience ou à leur instinct. Aujourd’hui, 60 % des managers américains utilisent l’IA générative, principalement ChatGPT, Microsoft Copilot et Google Gemini, pour prendre des décisions à fort impact concernant leurs subordonnés directs. Les promotions, les augmentations de salaire, les licenciements et les cessations d’activité façonnent les trajectoires des entreprises.
Parmi ceux qui utilisent l’IA pour ces décisions, la majorité l’utilise dans tous les domaines : 78 % l’appliquent pour déterminer les augmentations, 77 % pour les promotions, 66 % pour les mises à pied et 64 % pour les licenciements. De manière surprenante, ou peut-être pas, plus d’un manager sur cinq admet qu’il laisse souvent la genAI prendre la décision finale, sans intervention humaine.
Pour les dirigeants, c’est un signal : l’efficacité opérationnelle dans la gestion des effectifs n’est plus seulement une question de logiciel RH ou de structure de département. Il s’agit d’utiliser de puissants outils d’IA capables d’évaluer les contributions des employés plus rapidement, sur un plus grand nombre de variables, qu’un humain ne peut le faire en temps réel. Si elle est bien mise en œuvre, cette approche permet de prendre des décisions plus rapides, d’optimiser les structures organisationnelles et de réduire le delta entre l’impact de l’employé et la reconnaissance. Si elle est mal mise en œuvre, elle peut nuire à la culture et à la confiance plus rapidement que vous ne pouvez réagir.
L’IA n’a pas de sentiments. Elle ne comprend pas les nuances à moins d’avoir été entraînée dans ce sens. C’est à la fois sa plus grande force et sa plus grande faiblesse. Lorsqu’une machine vous donne un classement, une recommandation ou une décision d’arrêt, elle se base sur ce qu’elle sait, c’est-à-dire sur des données historiques et des paramètres choisis à l’origine par des humains. Si ces données sont erronées, les résultats le seront également. Lorsque vous développez ou mettez en œuvre l’IA dans des flux de travail RH critiques, comprenez qu’il ne s’agit pas d’une solution prête à l’emploi. Elle nécessite un contrôle humain et des limites claires.
À ce niveau d’adoption, l’IA générative n’est plus expérimentale. Elle est opérationnelle. Cela signifie également que vos concurrents l’utilisent, et que vous pouvez soit prendre les devants, soit les suivre.
La plupart des managers manquent de formation formelle sur l’utilisation éthique de l’IA générative pour la gestion des personnes.
La plupart des managers qui utilisent l’IA pour licencier, promouvoir ou rétrograder des employés ne savent pas vraiment comment l’utiliser correctement. Telle est la réalité. Alors que 94 % des managers qui utilisent l’IA déclarent l’appliquer aux décisions de gestion du personnel, seuls 32 % d’entre eux ont reçu une formation formelle sur la manière de le faire de manière éthique. Par ailleurs, 43 % d’entre eux ont reçu des conseils informels. Pire encore, près d’un quart d’entre eux (24 %) n’ont reçu aucune formation.
Il ne s’agit pas d’un oubli mineur. Vous ne pouvez pas confier l’équité ou l’empathie à un algorithme de boîte noire et espérer que les choses se passent bien. L’absence de formation adéquate n’expose pas seulement les entreprises à de mauvaises décisions, mais aussi à des poursuites judiciaires, à une dégradation de la marque de l’employeur et à une méfiance à long terme de la part des employés.
Voici le problème. L’IA produit des résultats rapidement, parfois trop rapidement. Lorsqu’un responsable voit une liste, un score ou un résultat, il a tendance à l’accepter comme une vérité, en particulier sous la pression. Sans comprendre comment l’IA a été entraînée, quelles sont les contraintes qu’elle suit, ou où elle peut introduire des biais, même les dirigeants bien intentionnés prennent des décisions sur la base d’hypothèses erronées.
Si votre équipe utilise l’IA générique pour l’embauche ou l’évaluation des performances, une formation formelle n’est pas facultative, elle est obligatoire. Cette formation doit aller au-delà du fonctionnement de l’outil et expliquer où se situent ses angles morts, comment recouper ses recommandations et quand les repousser. Sinon, vous risquez d’automatiser la partialité à grande échelle.
Les dirigeants devraient considérer cette question comme une priorité stratégique. L’IA ne cessera d’évoluer. La capacité de vos dirigeants à l’utiliser à bon escient déterminera si elle permet d’obtenir des résultats réellement équitables et productifs, ou si elle érode le moral et vous expose à des risques.
Comme l’explique Stacie Haller, conseillère en chef en matière de carrière chez Resume Builder, « il est essentiel de ne pas perdre la notion de ‘personnes’ dans la gestion du personnel » : « Il est essentiel de ne pas perdre la notion de ‘personnes’ dans la gestion des personnes ». Si vous tenez à une croissance durable, construisez des systèmes qui combinent la vitesse de l’IA et la perspicacité humaine. Non seulement pour la productivité, mais aussi pour l’intégrité.
L’IA générative influence de plus en plus les processus d’embauche, notamment la sélection des candidats et le remplacement des rôles
Le recrutement évolue rapidement. L’IA générative détermine désormais directement qui passe des entretiens, qui est embauché et qui est remplacé. Il s’agit d’une conception de la main-d’œuvre au niveau du système qui est pilotée par des algorithmes.
Selon Resume Builder, 46% des managers ont déclaré qu’on leur avait demandé d’évaluer si l’IA pouvait remplacer un poste humain. Plus de la moitié d’entre eux (57 %) ont répondu par l’affirmative. Et ce qui est encore plus révélateur, c’est que 43 % d’entre eux ont effectivement procédé à ce remplacement. Ainsi, des rôles réels sont progressivement supprimés sur la base des suggestions de l’IA.
L’entonnoir de recrutement est également piloté par l’IA. Le tri des CV, la présélection, voire les premiers entretiens, l’IA accomplit ces tâches à grande échelle. Une étude de TestGorilla indique qu’un employeur sur cinq aux États-Unis et au Royaume-Uni utilise déjà la genAI pour mener les entretiens du premier tour.
Cela a également un impact direct sur les modèles de recrutement des ressources humaines. Les équipes surchargées n’ont plus besoin d’analyser manuellement 800 CV. Cette tâche est accomplie en quelques secondes. Mais la rapidité introduit un risque. L’IA peut filtrer les candidats sur la base de données étroites ou historiques qui ne reflètent pas les capacités ou l’adaptabilité réelles. Des candidats qualifiés passent à côté parce que le modèle n’a pas reconnu un parcours non traditionnel ou un CV formulé différemment.
Pour les cadres, cela signifie que les décisions de recrutement sont filtrées par une logique qui peut ne pas s’aligner sur les objectifs fondamentaux de l’entreprise si elle n’est pas constamment supervisée et maintenue. Le résultat peut être un recrutement plus rapide. Mais vous avez également besoin de garanties pour vous assurer que vous constituez l’équipe que vous souhaitez réellement, et pas seulement celle qui correspond à un modèle de données prédéfini.
Il ne s’agit pas d’un sentiment anti-AI. C’est une question de précision. Il s’agit de s’assurer que vos modèles reflètent les réalités de votre vivier de talents et l’évolution des besoins de l’entreprise.
L’IA générative améliore l’efficacité opérationnelle dans les fonctions RH de routine, mais elle peut aussi introduire des problèmes d’équité et de partialité
L’IA générative rationalise le travail administratif des RH dans la plupart des fonctions. Les contenus de formation, les évaluations de performance, les plans de développement, tout cela peut être construit, édité et déployé plus rapidement avec l’aide de l’IA. En termes d’exécution, l’IA générative fait une grande partie du travail.
L’impact est réel. Dans l’enquête Resume Builder, 97% des managers qui utilisent genAI ont déclaré qu’ils s’en servaient pour produire du matériel de formation. Par ailleurs, 94% l’utilisent pour développer des plans de croissance pour les employés. Environ 91 % l’appliquent aux évaluations des performances. Même les plans d’amélioration des performances, un domaine sensible, sont soutenus par l’IA dans 88 % des cas.
Cela permet de gagner du temps. Elle libère la bande passante de la direction. Enfin, elle introduit un niveau de cohérence et de structure qu’il est difficile d’atteindre manuellement dans une grande organisation.
Mais c’est là qu’il faut se pencher sur la question de l’équité. L’IA ne détectera pas les conflits interpersonnels, les nuances contextuelles ou les efforts invisibles si elle n’est pas explicitement formée à l’évaluation de ces variables. En l’absence de conseils clairs et d’un examen régulier, le système finit par renforcer les jugements antérieurs. C’est là que les préjugés entrent dans le processus, pas toujours de manière intentionnelle, mais de manière fiable.
Pourtant, la plupart des cadres font confiance aux résultats. Soixante et onze pour cent d’entre eux estiment que l’IA prend des décisions justes. Ce sentiment de confiance est productif, mais s’il n’est pas étayé par des pistes d’audit claires et des modèles cohérents, il peut conduire à des erreurs qui s’amplifient rapidement et de manière invisible.
Pour les dirigeants, l’utilisation de l’IA pour alimenter les systèmes RH n’est pas facultative. Mais lui faire confiance aveuglément est une erreur. Utilisez l’outil. Rendez les flux de travail plus intelligents. Mais ne pensez pas que les résultats sont définitifs. Impliquez les gens. Examinez les résultats. Ajustez rapidement si nécessaire.
Vous n’avez pas besoin de plus de données. Vous avez besoin d’un meilleur jugement étayé par des données appliquées intelligemment et révisées en permanence. C’est ainsi que la technologie devient un atout et non un handicap.
Une supervision humaine et des lignes directrices éthiques solides sont essentielles pour un déploiement responsable de l’IA dans la gestion des personnes.
Si vous déployez l’IA dans un processus de prise de décision humaine, en particulier dans la gestion des employés, il doit y avoir une structure derrière. La supervision n’est pas une formalité. C’est une exigence fondamentale. L’IA ne comprend pas les implications. Elle ne sait pas quand une décision risque d’éroder la confiance ou de violer la conformité. Ce sont les personnes qui l’utilisent qui en sont responsables.
Aujourd’hui, les managers appliquent l’IA générative aux évaluations, aux licenciements, aux promotions et aux plans de développement. Mais beaucoup le font sans normes. Comme l’ont montré les données précédentes, seuls 32 % des managers utilisant l’IA générative ont reçu une formation formelle sur l’utilisation éthique. Près d’un quart d’entre eux n’en ont reçu aucune.
C’est un signal d’alarme.
Stacie Haller, conseillère en chef en matière de carrière chez Resume Builder, l’a dit clairement : Il est essentiel de ne pas perdre la notion de « personnes » dans la gestion des ressources humaines. Il ne s’agit pas d’un sentiment, mais d’une logique opérationnelle. Lorsque la confiance des employés est rompue, la rétention diminue, l’engagement baisse et les risques juridiques augmentent. Ce n’est pas compliqué. Maintenez la surveillance. Définissez des limites. Et formez vos équipes sur ce que l’IA fait sous le capot, et sur ce qu’elle ne fait pas.
Les entreprises qui n’établissent pas de normes éthiques claires pour l’utilisation de l’IA réagiront aux problèmes au lieu de les prévenir. Il est plus intelligent et plus rentable de définir les règles dès maintenant que de devoir nettoyer plus tard des décisions mal alignées.
Il n’est pas nécessaire de ralentir les progrès pour y parvenir. Mettez en œuvre les cadres de surveillance en même temps que vous développez l’adoption. Construisez-les ensemble. L’IA fonctionne mieux lorsque les gens sont toujours impliqués.
Les employeurs modifient leurs priorités en matière de recrutement en valorisant les compétences non techniques plutôt que l’expertise technique en matière d’IA.
L’IA prend en charge les parties répétitives du processus d’embauche, ce qui modifie ce que les employeurs apprécient chez les candidats. Et le changement est clair. Les entreprises commencent à donner la priorité aux compétences non techniques, telles que la communication, la pensée critique et l’adaptabilité, plutôt qu’à des compétences techniques très spécifiques en matière d’IA.
Les chiffres le confirment. Selon une récente étude de TestGorilla, seuls 38 % des employeurs recherchent activement des compétences spécifiques à l’IA chez les nouveaux employés. Ce chiffre est en baisse par rapport aux 52 % enregistrés il y a tout juste un an. Dans le même temps, 74 % utilisent des évaluations basées sur les compétences pour évaluer les candidats. Et 57 % des employeurs ont supprimé toutes les exigences en matière de diplôme universitaire.
Ce que cela vous apprend est simple : les employeurs ne sont pas à la recherche de CV remplis de mots à la mode. Ils recherchent des capacités réelles. Pas seulement des compétences dans un outil ou une plateforme spécifique, mais des personnes capables de poser les bonnes questions, d’interpréter les données avec précision et de travailler de manière productive avec les humains et l’IA.
Cela est d’autant plus important aujourd’hui que l’IA ne cessera d’évoluer. La version pour laquelle vous embauchez quelqu’un aujourd’hui n’existera peut-être plus dans quelques trimestres. Ce qui ne change pas, c’est la capacité à s’adapter, à apprendre et à prendre des décisions en l’absence de modèle clair.
Pour les équipes dirigeantes, cela devrait influencer directement les stratégies de requalification, la politique d’embauche et le développement des talents. Constituez des équipes capables de penser clairement et de résoudre les problèmes. Les outils techniques continueront d’évoluer. La valeur humaine n’est pas liée à la mémorisation de plateformes, mais à l’exercice du jugement sous pression et à la construction de l’avenir.
L’utilisation de l’IA générative dans les processus d’embauche précoces se généralise dans tous les secteurs d’activité
L’IA générative ne fait pas qu’apparaître dans les RH, elle devient la norme. Aux premiers stades de l’embauche, les employeurs s’appuient désormais sur des outils d’IA générative pour présélectionner les CV, noter les candidats et même mener les entretiens de premier tour. L’ampleur de l’adoption signifie que cela ne se limite plus aux premiers utilisateurs ou aux entreprises technologiques. Il s’agit d’une pratique active dans tous les secteurs.
Les données confirment cette évolution. Selon une étude de TestGorilla, 70 % des employeurs utilisent désormais la genAI à un moment ou à un autre de leur processus d’embauche. Un sur cinq l’utilise pour mener des entretiens initiaux avec les candidats. Il s’agit de l’entretien qui précède le moment où un membre de l’équipe s’adresse directement au candidat. Cela accélère les délais mais comprime les critères d’évaluation en une logique automatisée.
Pour les cadres, cela permet de gagner en rapidité et en portée. Les candidats dont le tri prenait des jours ou des semaines peuvent désormais être préqualifiés en moins d’une heure. Cela permet de gagner du temps dans toutes les fonctions de recrutement, en particulier pour les postes à fort volume ou à forte rotation. Mais la rapidité ne doit pas remplacer le bon jugement. L’IA peut scanner plus rapidement, mais elle n’évalue pas avec une perspective humaine à moins d’être explicitement programmée pour le faire.
De mauvais paramètres, une logique de filtrage rigide ou des données de formation obsolètes peuvent conduire à de mauvaises décisions à grande échelle. Les listes de présélection peuvent passer à côté des meilleurs candidats simplement parce que leur CV n’est pas conforme aux formats attendus ou parce qu’ils proposent des parcours professionnels variés mais peu familiers. Cela limite naturellement votre accès à des talents différenciés.
Aucune automatisation ne peut remplacer la responsabilité des dirigeants de constituer des équipes solides. Si l’IA gère le processus de sélection, vous avez toujours besoin de cadres décisionnels qui incluent des contrôles humains, des critères d’escalade et l’examen des données. Vous devez également tester de manière cohérente les résultats du modèle par rapport à des données de performance réelles, et pas seulement par rapport à des indicateurs de performance clés standard.
L’IA dans le recrutement est désormais attendue. La différence en termes d’avantage concurrentiel vient de la manière dont vous guidez consciemment sa mise en œuvre, en l’alignant sur la stratégie et les valeurs à long terme en matière de talents. C’est là que le leadership doit être actif. Non pas en écrivant le code, mais en façonnant la façon dont il est utilisé.
Réflexions finales
L’IA n’est pas à venir, elle est déjà présente dans la façon dont les entreprises recrutent, évaluent et gèrent leur personnel. Si vous occupez un poste de direction, vous n’êtes pas en train de décider si vous allez l’adopter ou non. Vous décidez comment façonner son utilisation.
Les avantages sont réels : rapidité, évolutivité et alignement plus étroit entre les données et la prise de décision. Mais cela ne vaut que si une supervision est en place. Si vos responsables ne sont pas formés, si vos modèles ne sont pas testés ou si vos politiques ne sont pas claires, vous ne progressez pas, vous automatisez l’incertitude.
C’est le moment de procéder à une mise en œuvre précise et délibérée. Intégrez l’IA dans vos flux de travail, et ne la placez pas aveuglément au-dessus d’eux. Formez les dirigeants à remettre en question les résultats. Intégrez l’éthique dans la logique de fonctionnement, et non comme une case de conformité à cocher.
L’IA ne remplacera pas un leadership réfléchi. Mais elle amplifiera le système dans lequel elle est intégrée. Faites de ce système un système auquel vous faites confiance pour fonctionner à grande échelle.