Le retour d’information généré par l’IA améliore les performances, mais seulement lorsqu’il est caché

Les systèmes de retour d’information pilotés par l’IA se sont révélés étonnamment efficaces pour améliorer les performances. Une étude réalisée en 2021 par le Strategic Management Journal a montré que les employés sont plus performants lorsqu’ils pensent que leur retour d’information provient d’un manager humain plutôt que d’un algorithme. Lorsque les employés apprennent la vérité, à savoir que c’est l’IA qui a rédigé le retour d’information, l’effet positif disparaît. L’étude a appelé cette réaction « l’effet de divulgation ».

Cet effet met en lumière un aspect fondamental du comportement humain. Ce n’est pas seulement le contenu du message qui compte, c’est la source perçue. Les employés s’attendent à ce que les évaluations des performances reflètent la compréhension, le contexte et l’empathie, des qualités associées au jugement humain. Ainsi, même lorsque l’IA génère des informations précises et personnalisées, la conscience de son implication déclenche une certaine résistance.

Pour les équipes dirigeantes, la leçon est directe. Le plus grand défi du déploiement de l’IA est d’ordre psychologique. Les données montrent que l’IA peut fournir des résultats supérieurs, mais sans l’acceptation des employés, ces résultats s’évaporent. Les dirigeants doivent agir avec prudence. La dissimulation de l’implication de l’IA peut produire des gains temporaires, mais crée un risque réel si la transparence est exigée plus tard.

Les systèmes d’IA doivent être positionnés comme des amplificateurs de valeur. Les entreprises qui expliquent le rôle de soutien de l’IA, en l’utilisant pour traiter des données à grande échelle ou mettre en évidence des tendances plutôt que pour porter des jugements seuls, peuvent atténuer la méfiance. L’IA est ainsi présentée comme un assistant qui améliore la gestion humaine plutôt que comme une figure d’autorité émettant des jugements impersonnels.

Le déficit de confiance mine le potentiel de l’IA dans les ressources humaines

La confiance est le principal obstacle à l’adoption de l’IA dans les ressources humaines. Une étude de SHL montre que seulement 27 % des travailleurs font confiance à leur employeur pour utiliser l’IA de manière responsable, tandis que 59 % pensent qu’elle aggrave les préjugés sur le lieu de travail. Cette perception à elle seule limite le potentiel de l’IA, indépendamment de ses capacités réelles. Même lorsque les algorithmes produisent un retour d’information plus juste, basé sur des données, la méfiance humaine en neutralise l’impact.

Ce manque de confiance découle de l’incertitude quant à la manière dont l’IA prend des décisions et quant à la responsabilité en cas d’erreur. Les employés craignent de perdre le lien personnel et l’équité, tandis que les dirigeants risquent d’être perçus comme détachés ou manipulateurs s’ils n’expliquent pas comment et pourquoi l’IA est utilisée. Cette perte de confiance entraîne presque toujours une baisse de l’engagement, une adoption plus lente et des résultats plus faibles.

Les dirigeants devraient considérer le déploiement de l’IA comme une transformation culturelle. La transparence, l’éducation et la clarté quant aux données utilisées et aux raisons de leur utilisation peuvent transformer l’IA d’une source d’anxiété en une source de confiance. Lorsque les gens comprennent que l’IA favorise l’équité et la cohérence, la confiance commence à se rétablir.

Un autre facteur essentiel est la gestion de la perception. Si les dirigeants expliquent clairement que l’IA ne juge pas les gens mais les aide à analyser des modèles pour prendre de meilleures décisions, les employés sont plus ouverts. Le fait d’intégrer des explications directement dans les systèmes de ressources humaines, en montrant comment les résultats sont obtenus, renforce la confiance et permet d’équilibrer l’efficacité des performances et la responsabilité éthique.

La résistance des employés découle du sentiment de déshumanisation.

La résistance des employés à l’utilisation de l’IA dans l’évaluation des performances ne vient pas de la technologie elle-même, mais de la façon dont les gens interprètent son utilisation. Les travailleurs supposent souvent qu’une machine n’a pas le contexte nécessaire pour comprendre les facteurs subtils qui influencent leurs performances. Ils pensent que les managers humains peuvent mieux reconnaître les comportements, les contraintes et les circonstances qui échappent aux données. Lorsque l’IA devient le visage de l’évaluation, les employés perçoivent une rupture de l’empathie et du lien avec le leadership.

Ryne Sherman, Chief Science Officer chez Hogan Assessments, explique que la résistance s’accroît lorsque les employés se sentent réduits à des intrants dans un système plutôt qu’à des individus aux contributions uniques. Il note que lorsque les organisations délèguent l’évaluation à des algorithmes, les membres de l’équipe peuvent y voir un signe que la direction privilégie l’efficacité au détriment de l’humanité. La perception d’être « traité » par un système conduit au désengagement, indépendamment de l’équité ou de l’exactitude des données.

Pour les dirigeants, cela met en évidence un défi de leadership. L’intégration efficace de l’IA exige une prise de conscience des émotions humaines et de l’impact culturel. Les chefs d’entreprise ne peuvent pas déléguer l’empathie au code. Les systèmes peuvent fournir des données précises, mais il faut un contexte humain pour interpréter ces données de manière constructive. Préserver le jugement humain dans les processus pilotés par l’IA peut maintenir la confiance tout en utilisant l’automatisation pour améliorer l’échelle et la cohérence.

Ce qu’il faut retenir pour les dirigeants : les employés ne rejettent pas la technologie, ils refusent de se sentir invisibles. Lorsque le retour d’information généré par l’IA s’accompagne d’une compréhension et d’une communication de la part de la direction, la résistance diminue et l’adoption devient organique. Il s’agit de préserver la dignité humaine dans un environnement dominé par les données.

Cacher l’utilisation de l’IA n’est pas viable et est contre-productif

Il n’est plus possible de dissimuler le rôle de l’IA dans les processus de retour d’information. Lorsque le langage généré par l’IA devient familier, les employés reconnaissent facilement son rythme et sa structure. Cela crée une suspicion immédiate. Une fois cette suspicion installée, les gains de performance disparaissent et la confiance s’érode rapidement. Les tentatives de dissimuler la présence de l’IA aboutissent à l’inverse de leur intention, à une baisse des performances et à une perte de crédibilité durable.

Edie Goldberg, présidente et fondatrice de E.L. Goldberg & Associates, note que les employés sont déjà formés pour sentir quand un texte manque de spécificité ou de profondeur humaine. Elle conseille aux cadres d’utiliser l’IA pour rédiger des commentaires, puis de les affiner en tenant compte du contexte, du ton et de la compréhension personnelle. Cette méthode permet aux organisations de tirer parti de l’efficacité de l’IA sans perdre l’authenticité que les gens attendent d’une interaction humaine.

Pour les dirigeants d’entreprise, il s’agit d’une question pratique de durabilité et de culture. La dissimulation peut apporter une stabilité à court terme, mais l’exposition est inévitable. Les employés parlent, les systèmes laissent des traces numériques et les attentes en matière de transparence sont plus élevées que jamais. Les risques éthiques et opérationnels liés à la dissimulation de l’IA l’emportent sur les indicateurs de performance à court terme qu’elle pourrait améliorer.

Les dirigeants devraient plutôt s’attacher à redéfinir la manière dont l’IA participe à la gestion. Présenter l’IA comme un assistant analytique, qui recueille de multiples points de données et les organise en vue d’une prise de décision humaine, établit une frontière claire entre l’autorité humaine et le soutien technologique. Lorsque les équipes considèrent l’IA comme un collaborateur plutôt que comme un imposteur, la performance et la confiance peuvent coexister.

La transparence comme principe de conception du système

La transparence ne doit pas être considérée comme une réflexion morale après coup ; elle doit être intégrée dans les fondements des systèmes pilotés par l’IA. Lorsque les organisations identifient clairement le retour d’information généré par l’IA et fournissent aux employés les mêmes informations que celles que voient leurs managers, la confiance s’accroît grâce à une participation ouverte. Cela lève l’ambiguïté et crée une responsabilité, à la fois pour les managers et pour la technologie elle-même. L’approche axée sur la transparence permet de fiabiliser la manière dont le retour d’information circule et de ne plus laisser de place à la spéculation.

Kate O’Neil, cofondatrice et PDG d’Opre, a pleinement adopté ce modèle. Sa plateforme étiquette ouvertement tous les retours d’information générés par l’IA et les transmet simultanément aux managers et aux employés. Aucune des parties ne peut modifier ou dissimuler l’origine des informations. Les deux parties savent ainsi exactement quel contenu est généré par la machine et quel contenu doit être interprété par l’homme. L’approche de M. O’Neil fait du retour d’information un processus partagé plutôt qu’une hiérarchie cachée.

Pour les décideurs, cette stratégie favorise l’évolutivité sans nuire à l’intégrité. Lorsque les employés savent d’où viennent les données, ils se concentrent davantage sur l’amélioration des performances que sur la remise en question de leur légitimité. Elle renforce également la responsabilité managériale : les dirigeants doivent interpréter les informations et agir en conséquence plutôt que de les transmettre passivement.

Les organisations qui adoptent des cadres d’IA transparents font confiance à leurs systèmes et à leur personnel. Au fil du temps, cette transparence renforce la résilience. Les employés cessent de se demander s’ils sont induits en erreur et considèrent plutôt les résultats du système comme une base de discussion honnête. Ce changement peut renforcer la collaboration et améliorer l’alignement global entre le personnel et la direction.

Les retombées inévitables des pratiques trompeuses en matière d’IA

Les organisations qui cachent l’implication de l’IA dans le retour d’information ou la gestion des performances découvrent souvent que les retombées sont bien plus dommageables que prévu. Lorsque la dissimulation est découverte, la confiance s’évapore. Les employés se sentent manipulés, la crédibilité des dirigeants s’effondre et le ressentiment remplace la coopération. À partir de là, le rétablissement devient lent et coûteux. La tromperie ne nuit pas seulement aux relations individuelles, elle sape l’ensemble de la culture de gestion.

Edie Goldberg rappelle que la confiance, une fois rompue, est incroyablement difficile à rétablir. Elle a observé comment les employés d’organisations utilisant des systèmes d’IA cachés se désengagent et deviennent sceptiques, même à l’égard d’un retour d’information humain légitime par la suite. Ryne Sherman se fait l’écho de cette mise en garde en déclarant qu’une fois que la tromperie est rendue publique, la confiance au sein de la main-d’œuvre « touche le fond ». Selon lui, les conséquences vont au-delà de l’attrition ; le désengagement et la perte de moral déstabilisent rapidement les performances des équipes.

Pour les dirigeants, la tromperie comporte un risque organisationnel mesurable. La révélation d’une utilisation cachée de la technologie déclencherait probablement des crises internes, notamment le départ d’employés, l’effondrement du moral ou une enquête publique. Le rétablissement de la confiance nécessiterait une réforme en profondeur, impliquant souvent des changements de direction et une transparence totale sur les pratiques en matière de données.

Le message est clair : les gains de performance à court terme obtenus par la tromperie entraînent une destruction à long terme. L’adoption transparente de systèmes d’IA n’est pas simplement une position éthique, c’est une décision stratégique de gestion des risques. Les entreprises qui investissent dans l’honnêteté aujourd’hui construiront une confiance durable qui les protégera des contrecoups plus tard. Celles qui ne le font pas risquent de perdre à la fois leur personnel et leur image de marque lorsque la vérité éclatera.

Le choix entre confiance et performance révèle les valeurs de l’organisation

La décision de divulguer ou de dissimuler l’implication de l’IA va au-delà des opérations ou de la configuration du système, elle révèle le type d’organisation que les dirigeants sont en train de construire. Chaque choix des dirigeants sur cette question indique si l’entreprise donne la priorité à une confiance durable ou à des mesures de productivité à court terme. Le fait de cacher l’implication de l’IA pour préserver les performances à court terme peut témoigner d’une orientation tactique, tandis que le choix de la transparence indique une orientation stratégique alignée sur la stabilité et la crédibilité à long terme.

Cette divergence d’approche a des implications plus larges. Lorsque la transparence de l’IA est sélective, révélée aux dirigeants mais cachée aux travailleurs de première ligne, elle amplifie les clivages existants entre la direction et le personnel. Cette inégalité engendre du ressentiment, accélère le désengagement et affaiblit la culture d’entreprise. Une transparence totale permet d’aligner toutes les couches de l’organisation sur une compréhension unifiée de la manière dont les données et les algorithmes influencent les décisions des personnes.

Les dirigeants doivent reconnaître que la confiance du personnel est désormais une variable de performance, et non plus une considération secondaire. Une entreprise peut disposer d’une technologie supérieure, mais si les employés mettent en doute l’intégrité des dirigeants, les performances, la fidélisation et la réputation se dégradent au fil du temps. La clarté sur l’utilisation de l’IA favorise l’équité, en veillant à ce que les données sur les performances soient perçues comme fiables et impartiales plutôt que manipulées ou cachées.

L’équilibre entre transparence et productivité n’est pas statique. Il s’agit d’une évaluation continue des priorités par les dirigeants. Des études montrant que seulement 27 % des travailleurs font confiance à leurs employeurs pour utiliser l’IA de manière responsable et que 59 % pensent qu’elle aggrave les préjugés soulignent la fragilité de l’environnement actuel. Les entreprises qui font face à cette réalité de manière proactive ont plus de chances de réussir à mettre en œuvre l’IA en tant que partie intégrante de leur infrastructure de gestion.

La véritable promesse de l’IA réside dans le retour d’information contextuel en temps réel

Le véritable avantage de l’IA dans la gestion des performances réside dans l’immédiateté, et non dans l’imitation. Lorsque l’IA fournit un retour d’information en temps réel, en mettant en évidence les schémas de flux de travail, les changements de productivité ou les mesures de collaboration, elle apporte une valeur que les évaluations traditionnelles ne peuvent pas offrir. Les informations immédiates, étayées par des données, permettent aux employés et aux dirigeants de réagir rapidement aux changements au lieu d’attendre les évaluations annuelles ou trimestrielles. Cela permet de passer de l’évaluation à l’amélioration continue.

Edie Goldberg souligne ce potentiel, notant que l’IA peut traiter de grandes quantités de données sur les performances à travers de multiples interactions et délais, produisant un retour d’information plus juste et plus complet que les évaluations traditionnelles. Le retour d’information en temps réel de l’IA peut intégrer les commentaires des pairs, les données de communication et les mesures de performance en une seule image cohérente, réduisant ainsi les préjugés individuels et améliorant la précision.

Pour les dirigeants, l’avantage stratégique est évident. Les données en temps réel créent un cadre de gestion dynamique dans lequel les discussions sur les performances sont basées sur des faits plutôt que sur des interprétations tardives. Les employés bénéficient d’une orientation immédiate et les dirigeants ont une visibilité sur les tendances qui se développent avant qu’elles ne deviennent des problèmes systémiques. Au fil du temps, cette boucle continue peut améliorer la cohérence des performances et l’engagement.

Cependant, les dirigeants doivent également reconnaître les implications culturelles. L’utilité du retour d’information en temps réel piloté par l’IA dépend de la confiance des employés dans l’équité du système. Si les travailleurs comprennent que le système observe le comportement professionnel et non des détails personnels, la transparence peut coexister avec la précision opérationnelle. Des limites appropriées et une communication claire sur la manière dont les données sont utilisées détermineront si les employés considèrent le retour d’information piloté par l’IA comme un soutien ou une invasion.

La question non résolue de la transparence et de l’efficacité dans le temps

Le débat sur l’opportunité de divulguer l’implication de l’IA dans la gestion des performances n’est toujours pas résolu, en grande partie parce que les preuves à long terme sont encore limitées. Des études à court terme, telles que la recherche menée en 2021 par le Strategic Management Journal, confirment que la divulgation de l’utilisation de l’IA réduit les résultats immédiats en matière de performances. Cependant, aucune donnée longitudinale ne montre si les systèmes transparents finissent par surpasser les systèmes opaques en renforçant la confiance et la résilience culturelle.

Les dirigeants sont confrontés à une décision qui met à l’épreuve la philosophie du leadership autant que la stratégie opérationnelle. Les partisans de la transparence donnent la priorité à une culture durable, à l’intégrité et à la santé à long terme de l’organisation, arguant que la divulgation ouverte prévient les crises de confiance inévitables. D’autres se concentrent sur l’efficacité à court terme, estimant que l’augmentation des performances initiales peut aider à justifier ou à affiner les systèmes avant que la divulgation ne devienne nécessaire. Ces deux points de vue reflètent des profils de risque différents plutôt qu’un désaccord moral pur et simple.

Dans la pratique, la plupart des organisations se situent quelque part entre ces deux positions. Une divulgation complète risque d’entraîner une résistance précoce et une baisse de la productivité, tandis qu’une dissimulation risque d’entraîner des retombées importantes. L’absence de précédent historique concernant l’utilisation de l’IA dans le retour d’information sur les performances aggrave l’incertitude. Les dirigeants doivent s’appuyer sur des principes plutôt que sur des références empiriques exhaustives. La gouvernance de l’IA devient ainsi un test de valeurs, que l’organisation choisisse l’optimisation immédiate ou la capacité de transformation à long terme.

Pour les décideurs, la bonne stratégie dépend de la maturité et de la culture de l’organisation. Les entreprises dont les normes de transparence et l’engagement des employés sont élevés devraient intégrer l’utilisation de l’IA ouvertement dès le départ. Celles qui se trouvent dans des environnements moins confiants peuvent avoir besoin d’une divulgation progressive avec une éducation active et un renforcement culturel. L’authenticité de la communication des dirigeants déterminera le succès de l’une ou l’autre approche.

L’adoption de l’IA dans les RH et la gestion de la performance ne se limite pas à l’automatisation des processus, il s’agit de façonner la façon dont les gens vivent l’équité et le leadership dans un environnement numérique. La question de la divulgation continuera d’évoluer à mesure que de plus en plus d’entreprises mettront en œuvre des systèmes transparents et suivront les résultats des performances sur plusieurs années. La réponse émergera des résultats du monde réel, et non de la théorie.

Le bilan

Pour les dirigeants qui façonnent la prochaine génération de systèmes de performance, l’IA est à la fois un accélérateur et un miroir. Elle amplifie les valeurs, les processus et les relations existants. La question n’est pas de savoir si l’IA peut optimiser la production, elle le fait déjà, mais si l’organisation est prête à gérer ce que l’optimisation révèle de sa culture.

La confiance est désormais aussi mesurable que la performance elle-même. Lorsque les employés comprennent comment la technologie s’intègre dans l’évaluation et la prise de décision, ils réagissent par l’engagement et non par la peur. S’ils se sentent manipulés, ils se désengagent, quelle que soit la précision du système. La différence réside dans la manière dont les dirigeants définissent ouvertement le rôle de l’IA dans le jugement et la responsabilité.

Les dirigeants qui considèrent la transparence comme une norme de leadership plutôt que comme une obligation de conformité trouveront l’IA plus facile à intégrer et à développer. Ceux qui misent sur le secret à court terme pour obtenir des gains rapides en feront les frais plus tard, par la perte de talents, de confiance ou de cohésion interne.

L’IA n’érode pas la culture, elle la met à l’épreuve. Les entreprises dont les intentions, les processus et les objectifs sont clairs utiliseront cette technologie pour renforcer leurs effectifs. Celles qui ne savent pas exactement ce qu’elles représentent verront cette incertitude se multiplier. L’avenir récompensera l’honnêteté, la précision et le courage d’aligner la technologie sur les valeurs plutôt que sur la commodité.

Alexander Procter

mars 24, 2026

18 Min