Le déséquilibre dans l’adoption de l’IA nuit à la productivité
La plupart des entreprises ne manquent pas d’outils d’IA, mais ne les utilisent pas correctement. C’est ce qui ressort de la dernière étude de Zellis sur l’IA sur le lieu de travail au Royaume-Uni, et cela vaut la peine d’y prêter attention. Alors que 94 % des chefs d’entreprise estiment que leur organisation utilise déjà l’IA, seuls 61 % des employés déclarent l’utiliser réellement. Cet écart n’est pas négligeable, il indique que les hypothèses des dirigeants sur l’adoption de la technologie ne correspondent pas à l’expérience quotidienne des employés.
Ce désalignement coûte plus cher que la simple précision des discussions en salle de conférence. Selon Zellis, les entreprises britanniques pourraient passer à côté de 60 milliards de livres sterling par an en termes de productivité et d’économies. Ce chiffre n’est pas hypothétique, il est basé sur un modèle où un meilleur alignement entre la vision des dirigeants et l’utilisation des employés permet d’augmenter de 8 % la valeur du temps de travail.
Il s’agit ici d’un problème de leadership, et non d’un problème d’outils. Les entreprises se trouvent dans ce que M. Zellis appelle une « zone grise de l’IA », où les dirigeants constatent des progrès, mais où les employés restent confrontés à un accès fragmenté et à une adoption inégale. Si vous n’investissez pas dans des plans de mise en œuvre clairs, des plans qui vont au-delà des titres et des diapositives, vous laissez de l’argent sur la table. Il ne s’agit pas de lancer l’IA. Il s’agit de la faire atterrir là où elle compte le plus.
Abigail Vaughan, PDG de Zellis, l’a dit clairement : « Laisser cette valeur non réalisée n’est pas une option ». Et elle a raison. Si la technologie existe mais que les équipes ne savent pas comment l’utiliser ou ne savent pas pourquoi elle est utilisée, vous avez construit un système qui semble avancé de l’extérieur mais qui ne donne que des résultats médiocres.
Les dirigeants devraient envisager l’adoption de l’IA de la même manière qu’ils envisagent les marges, c’est-à-dire de manière mesurable, optimisée et totalement alignée du haut vers le bas jusqu’à la ligne de front. Tout ce qui ne l’est pas introduit des inefficacités que vous ne pouvez pas vous permettre sur un marché concurrentiel.
Priorités divergentes pour l’application de l’IA entre les dirigeants et les employés
Lorsque les dirigeants et les employés ne sont pas d’accord sur la manière d’utiliser l’IA, la productivité stagne. D’après les données, la plupart des employés préféreraient que l’IA s’occupe des tâches administratives répétitives, de la saisie des données, de la vérification des erreurs et du traitement des formulaires de base. C’est simple : ils veulent moins d’obstacles dans leur travail quotidien. 69 % d’entre eux sont favorables à l’utilisation de l’IA pour ces tâches de routine, ce qui est logique. Gagnez du temps, réduisez le bruit et laissez-les se concentrer sur le travail qui génère de la valeur.
Les dirigeants souhaitent souvent quelque chose de différent. Un pourcentage surprenant de 35 % pense que l’IA devrait aider à prendre des décisions sur les promotions, les salaires et les progressions de carrière, des domaines qui touchent à la confiance et à l’épanouissement personnel. Mais seuls 8 % des employés sont d’accord avec cette approche. Il s’agit d’un fossé important. Et cela montre que certains dirigeants ne se posent pas une question essentielle : parce que l’IA peut faire quelque chose, doit-elle le faire ?
Si l’IA est appliquée dans des domaines où la confiance et la transparence sont les plus importantes, sans cadres clairs et sans contrôles humains, elle peut se retourner contre vous. Elle éloigne les employés de la technologie au lieu de les y attirer. Si le personnel a l’impression que l’IA est utilisée pour gérer les décisions plutôt que pour améliorer les performances, il résistera. Non pas parce qu’ils sont hostiles à la technologie, mais parce qu’ils ne voient pas d’équité dans le système.
Pour les décideurs, l’étape suivante est simple : aligner l’utilisation de l’IA sur les priorités réelles sur le terrain. Ne la déployez pas dans des domaines stratégiques si vous n’avez pas déjà prouvé sa valeur dans des domaines opérationnels. Établissez la confiance en partant de la base, et non du sommet.
Il n’y a pas d’hésitation à adopter l’IA, mais il faut être prudent lorsqu’elle franchit la ligne de l’autorité décisionnelle sans contribution. Le message de vos équipes est clair : utilisez l’IA pour aider, pas pour remplacer ; pour soutenir, pas pour contrôler. C’est là que réside la valeur.
Participation insuffisante des employés à la prise de décision en matière d’IA
La confiance des dirigeants dans la manière dont l’IA est déployée ne correspond souvent pas à l’expérience des employés. L’étude de Zellis le montre clairement. Parmi les dirigeants d’organisations utilisant l’IA, 63 % pensent que les employés sont impliqués dans les décisions relatives à son utilisation. Mais seulement 40 % des employés sont de cet avis, et 33 % disent qu’ils ne sont pas du tout impliqués.
Cet écart n’est pas seulement une question de perception, il a un impact sur la confiance, l’engagement et l’efficacité. Si les équipes ne font pas partie de la conversation lorsque les initiatives d’IA sont lancées, l’adoption diminue. Les outils d’IA ont toujours besoin d’un contexte pour avoir un impact, et cela vient des personnes qui les utilisent.
Lorsque les employés ne participent pas activement à l’élaboration de l’utilisation de l’IA, le résultat est prévisible : les outils sont sous-utilisés, mal compris ou mal appliqués. Les commentaires du personnel ne sont pas une case à cocher, mais une source de données. Ils peuvent mettre en évidence des frictions opérationnelles, des flux de travail médiocres et des processus à haut niveau d’effort et à faible rendement que l’IA est la mieux à même d’optimiser.
Pour les dirigeants, cela signifie qu’il faut intégrer le retour d’information des employés dans l’ensemble de la stratégie d’IA, de la sélection au déploiement. Il ne suffit pas d’annoncer une mise à niveau de la plateforme ou d’obtenir l’adhésion au moment du déploiement. L’intégration doit être cohérente. Elle doit être visible. Vous devez faire en sorte que les employés sachent que leur contribution influe sur les résultats.
Lorsque la confiance est là et que l’implication est authentique, vous obtenez l’alignement. Et l’alignement est ce qui transforme l’IA d’une fonctionnalité en une capacité.
L’alignement amélioré de l’IA peut générer une productivité et des économies significatives.
L’IA peut débloquer d’importants gains de productivité, mais seulement lorsque son utilisation soutient la façon dont les gens travaillent réellement. Selon Zellis, l’alignement de la stratégie d’IA sur les flux de travail réels pourrait permettre de déplacer 8 % du temps des employés vers des activités à plus forte valeur ajoutée. Faites le calcul : cela représente 1,7 milliard d’heures dans les grandes organisations britanniques. Un chiffre évalué à 40 milliards de livres sterling par an rien qu’en termes de capacité du personnel.
L’IA n’est pas seulement un gain de temps, elle restructure la manière dont les efforts sont déployés au sein d’une organisation. En alignant correctement les efforts, vous augmentez la capacité sans augmenter les effectifs. Utilisez cette bande passante supplémentaire pour la croissance, l’innovation ou l’exécution de précision dans les fonctions essentielles.
Il y a également un aspect important lié à la rentabilité. Un dirigeant sur cinq a déclaré qu’une intégration plus intelligente de l’IA pourrait réduire les coûts d’exploitation de 7 à 10 %. Zellis estime que cela pourrait débloquer jusqu’à 20 milliards de livres sterling d’économies supplémentaires par an. Cela représente 1 livre sterling pour chaque 10 livres sterling dépensées.
Les dirigeants disposent de deux leviers, l’efficacité et l’efficience. L’alignement de l’IA améliore ces deux leviers s’il est correctement positionné. Mais des outils mal intégrés bloquent ces résultats. Le système que vous déployez doit refléter la manière dont vos équipes travaillent, pensent et exécutent. Sinon, vous n’aurez acheté que de la complexité.
Si vous ne mesurez pas l’impact opérationnel direct de l’IA, vous avancez à l’aveuglette. Une fois que l’alignement est clair, la valeur l’est aussi. Elle se manifeste dans les mesures de performance, les structures de coûts et la résilience de votre modèle opérationnel.
Attentes accrues en matière d’outils d’IA et de montée en compétences des employés et des dirigeants.
L’IA devient rapidement une compétence de base, non seulement pour les équipes chargées des données, mais pour tout le monde. Les employés le comprennent. Ils veulent de meilleurs outils et la formation adéquate pour les utiliser. Zellis rapporte que 34 % des employés s’attendent à ce que leur employeur leur fournisse des outils d’IA d’ici un an. Ce chiffre passe à 63 % si l’on considère une période de deux ans.
Les dirigeants voient eux aussi venir le changement. Près de la moitié d’entre eux, 47 %, s’attendent à ce que des compétences avancées en matière d’IA et de numérique soient nécessaires dans leur organisation au cours de l’année prochaine. Ce chiffre passe à 77 % sur deux ans. Plus important encore, 74 % reconnaissent que le perfectionnement des employés deviendra une priorité croissante au cours de cette même période. Ces signaux parallèles indiquent une inadéquation des attentes qui ne durera pas longtemps.
Si votre entreprise est en retard dans l’intégration de la formation à l’IA dans les parcours d’apprentissage actuels, vous vous exposez à des risques. La rétention des talents devient plus difficile, les capacités internes plafonnent et le recrutement devient plus coûteux. Les personnes très performantes n’attendront pas qu’une organisation rattrape son retard alors que d’autres investissent déjà dans des voies de croissance qui correspondent aux besoins du marché.
Investir intelligemment signifie aujourd’hui mettre en place une main-d’œuvre qui ne se contente pas d’utiliser l’IA, mais qui s’y attend et l’applique avec compétence. La pression est là, et le délai est court. Il ne s’agit pas de procéder à des révisions massives de l’infrastructure. Il s’agit de rendre l’IA accessible, compréhensible et exploitable au sein de chaque équipe.
Les chefs d’entreprise devraient planifier la maîtrise de l’IA de la même manière qu’ils investissent dans la littératie financière ou la communication numérique. Ce n’est pas facultatif. Il s’agit d’une capacité essentielle.
Des pratiques transparentes en matière d’IA renforcent la confiance, la rétention et le bien-être au travail.
La confiance augmente lorsque l’IA est mise en œuvre avec transparence. Selon Zellis, 40 % des salariés déclarent que la transparence sur l’utilisation de l’IA les inciterait à rester chez leur employeur. Par ailleurs, 42 % d’entre eux affirment que cela améliorerait leur confiance dans les dirigeants.
Les dirigeants doivent l’entendre clairement : la transparence ne consiste pas à sur-expliquer l’algorithme. Il s’agit de définir les limites, ce que fait l’IA, comment les décisions sont prises et où la supervision humaine reste essentielle. Lorsque les employés comprennent comment l’IA est utilisée et pourquoi, la confiance augmente et le stress diminue.
C’est particulièrement vrai pour les jeunes employés, qui façonnent la prochaine phase des attentes de la main-d’œuvre. Parmi les travailleurs âgés de 18 à 34 ans qui utilisent l’IA, 62 % ont signalé une réduction du stress au travail et 61 % ont déclaré que l’IA avait accru leur confiance dans leur rôle. Ils ne remettent pas en question l’existence de l’IA. Ils demandent de la clarté et un leadership qui garantisse qu’elle apporte une valeur ajoutée sans prendre le contrôle.
Lorsque vos collaborateurs ont le sentiment que l’IA existe pour les aider, et non pour les juger, vous obtenez un alignement. Cela se traduit par une meilleure concentration, un rendement plus élevé et une culture plus forte. Il s’agit là de résultats fondamentaux pour l’entreprise, et non d’avantages accessoires.
Les dirigeants doivent favoriser l’adoption de l’IA en intégrant la transparence dans le modèle dès le premier jour. Cela signifie une communication claire, des boucles de retour d’information permanentes et des cas d’utilisation définis avec des contrôles humains si nécessaire. Si vous êtes franc et cohérent, la confiance s’installe, et vos meilleurs collaborateurs aussi.
Les jeunes employés sont plus engagés et ont une perception plus positive de l’IA
La dynamique générationnelle modifie la façon dont l’IA est perçue et utilisée au sein des organisations. Les jeunes employés, en particulier ceux âgés de 29 à 44 ans, sont en tête en termes d’utilisation et d’engagement. Selon Zellis, 69 % des membres de ce groupe utilisent activement l’IA dans le cadre de leurs fonctions, et 27 % déclarent l’utiliser fréquemment. Il ne s’agit pas d’une adoption, mais d’un comportement intégré.
Ces employés sont également plus engagés dans les conversations autour de la politique et de la mise en œuvre de l’IA. Parmi eux, 58 % estiment que leurs commentaires sur l’IA sont entendus et pris en compte. Ce niveau d’engagement ne se retrouve pas dans l’ensemble de la main-d’œuvre, où seuls 45 % estiment que les dirigeants utilisent l’IA de manière efficace, et 40 % se sentent impliqués dans les décisions qui s’y rapportent.
Ce que cela montre est simple : la prochaine génération de dirigeants interagit déjà avec l’IA d’une manière pratique et confiante. Ils n’attendent pas de permission. Ils s’attendent à ce que l’IA soit disponible, utilisable et conçue en tenant compte de leurs commentaires.
Pour les équipes dirigeantes, cela a des implications à long terme. Au fur et à mesure que ces travailleurs accèdent à des postes de direction, leurs préférences détermineront les attentes en matière d’IA dans l’ensemble de l’organisation. Ils exigeront des systèmes plus réactifs, des cadres plus transparents et des normes d’adoption plus élevées.
Ignorer cette tendance retarde la compétitivité et affaiblit votre stratégie en matière de talents. L’adopter, en revanche, signifie créer des habitudes organisationnelles qui s’adaptent au leadership futur, et non qui s’y opposent.
Steve Elcock, directeur des produits – IA chez Zellis, a résumé la situation de manière concise : « L’IA n’échoue pas parce que la technologie n’est pas prête, mais parce que les gens ne le sont pas : « L’IA n’échoue pas parce que la technologie n’est pas prête ; elle échoue parce que les gens ne le sont pas ». C’est l’essentiel. L’engagement n’est pas une question d’accès technique, c’est une question d’éducation, de confiance et d’alignement réel sur la façon dont les gens veulent travailler. Lorsque ces éléments sont présents, les capacités évoluent rapidement, tout comme la valeur.
Dernières réflexions
La technologie ne crée pas de valeur en soi. Ce sont les personnes qui le font, lorsque les systèmes qu’elles utilisent servent réellement leur mode de travail. À l’heure actuelle, trop de stratégies d’IA sont mal alignées, trop hiérarchisées ou déconnectées des besoins des équipes. Le résultat est prévisible : gains non réalisés, adoption lente et frustration des talents.
Les données de Zellis sont claires. L’alignement de l’IA ne consiste pas à rechercher de nouveaux outils ou à faire preuve d’ambition technique. Il s’agit de clarté opérationnelle, d’inclusion de la main-d’œuvre et de concentration stratégique. C’est ce qui permet de débloquer l’échelle, l’efficacité et la résilience.
Pour les dirigeants, il s’agit d’une équation simple : un meilleur alignement est synonyme de meilleurs résultats. Rendez votre stratégie d’IA pratique. Faites en sorte qu’elle soit digne de confiance. Associez votre personnel au processus. Parce que lorsque l’IA soutient les personnes, au lieu de leur être imposée, vous ne vous contentez pas d’améliorer les performances. Vous les protégez de l’avenir.
L’opportunité est énorme. Ce n’est pas la technologie qui décidera du résultat. C’est l’approche humaine que vous adoptez pour l’utiliser.


