L’adoption de l’IA reste limitée dans les bureaux

Coupons court au bruit. En ce moment même, l’adoption de l’IA générative dans les bureaux est modeste, un peu plus de 25 % des organisations sont « à fond », et 28 % mènent des projets pilotes d’IA ciblés et de petite envergure. C’est tout. La moitié des entreprises sont coincées dans des phases d’évaluation ou n’ont pas de déploiement du tout. Cela en dit long. La plupart des organisations tentent encore de déterminer quelle valeur mesurable l’IA peut apporter.

Si votre entreprise n’a pas encore déployé l’IA à grande échelle, ne vous inquiétez pas. Vous êtes en phase avec la plupart des acteurs du marché. Les principales raisons ? L’absence de cas d’utilisation clairs. Des flux de travail existants qui ne s’intègrent pas bien à l’IA. L’incertitude quant à la manière dont les outils d’IA s’intègrent dans les opérations quotidiennes et dans une stratégie plus large. Mais ces problèmes peuvent être résolus, et les dirigeants qui agissent tôt, testent largement et se concentrent sur des résultats commerciaux clairs obtiendront des avantages composés à long terme.

Selon la dernière enquête de Perficient « State of GenAI in the Workforce Survey », 26% des organisations ont pleinement adopté l’IA, et 28% l’ont déployée de manière sélective. Le « 2025 Generative AI in Professional Services Report » de Thomson Reuters a suivi des tendances presque identiques auprès de 1 702 professionnels du droit, de la fiscalité et de l’administration. Il s’agit d’une validation parallèle cohérente dans tous les secteurs.

L’adoption s’accélérera. Mais ce qui déterminera les leaders sera la volonté de tester, d’itérer et de former, et pas seulement d’installer un logiciel. Le marché dispose encore d’un vaste espace ouvert pour les adoptants stratégiques.

Une formation inadéquate empêche l’adoption effective de l’IA

Il s’agit d’une question évidente mais qui n’est pas suffisamment prise en compte : la plupart des employés ne reçoivent pas de formation adéquate sur les outils d’IA. L’étude de Perficient a révélé que de nombreux employés ne reçoivent que des courriels des services informatiques sur l’IA. Ce n’est pas de la formation. C’est du bruit.

Voici le problème : L’IA ne fonctionnera pas pour votre entreprise si vos collaborateurs ne savent pas comment l’utiliser correctement. Il ne s’agit pas seulement d’installer de nouveaux outils, mais de permettre à votre équipe de penser et d’exécuter différemment. Il s’agit de repenser la manière dont les décisions sont prises, dont les tâches sont exécutées et dont les résultats sont obtenus. Il ne suffit pas d’un lien vers un guide de l’utilisateur pour y remédier.

Eric Walk, directeur de la stratégie des données d’entreprise chez Perficient, l’a bien compris : « L’adoption est avant tout le résultat d’une bonne formation et d’un bon accompagnement. C’est le delta entre ceux qui expérimentent et ceux qui passent à l’échelle. Votre technologie ne vaut que ce que vaut votre traction interne.

Les dirigeants doivent se poser la question suivante : donnez-vous aux employés les moyens de travailler efficacement avec l’IA ou leur demandez-vous simplement de s’adapter par eux-mêmes ? Si vous répondez par l’affirmative, vous brûlez un avantage concurrentiel potentiel. Les employés ont besoin d’une expérience pratique, de flux de travail clairs et de véritables boucles de rétroaction pour faire confiance à ces outils et s’améliorer.

Une forte habilitation n’est pas un problème mineur, c’est une couche d’accélération. Si votre personnel le comprend, l’IA devient un multiplicateur de force. Dans le cas contraire, elle devient un produit de consommation courante. La plupart des entreprises n’investissent pas assez dans la gestion du changement à cet égard, ce qui se traduit par un écart entre les tests pilotes et l’adoption complète. Corrigez cet écart et l’adoption s’accélérera.

L’IA permet des gains de productivité mesurables

Nous voyons des signaux clairs, l’IA augmente la productivité réelle sur le lieu de travail. Il ne s’agit pas de suppositions, ni de vagues promesses, mais d’améliorations mesurables. Au total, 76 % des employés interrogés qui utilisent l’IA déclarent qu’elle améliore leur rendement, la qualité de leur travail, ou les deux à la fois.

Les outils d’IA traitent déjà des tâches qui reflètent les compétences d’une personne ayant 7 à 10 ans d’expérience professionnelle humaine. Cela signifie que les systèmes sont suffisamment mûrs pour apporter des contributions significatives, et pas seulement une automatisation légère ou une productivité de surface. Pour les tâches impliquant le résumé de documents, la détection de modèles ou la génération de contenu, la précision et la vitesse modifient déjà les flux de travail.

Les dirigeants doivent cesser de considérer ce sujet comme théorique. Vos équipes utilisent probablement déjà l’IA générative dans des cas d’utilisation isolés. Le choix est maintenant de savoir si vous voulez formaliser cette utilisation dans l’architecture de l’entreprise ou rester dans l’expérimentation fragmentée. Si la vitesse, la cohérence ou l’exécution de tâches en parallèle présentent un intérêt, l’IA est le chemin le plus court, non pas parce qu’elle remplace les personnes, mais parce qu’elle accroît le potentiel des équipes à tous les niveaux.

Les données dressent un tableau clair. Le rapport de Perficient montre que 17% des utilisateurs de l’IA ont constaté une augmentation de la production, 32% une amélioration de la qualité, et 27% les deux. Cela signifie que les deux tiers des utilisateurs ont déjà dépassé les niveaux de performance de base. Il s’agit désormais d’une question d’évolutivité, et non de viabilité.

Ce qu’il faut retenir : L’IA fonctionne, et plus les entreprises attendent pour l’intégrer dans les systèmes et les équipes, plus elles paient en coût d’opportunité. Les dirigeants n’ont pas besoin de perfection au moment du lancement. Ils ont besoin d’une structure et d’une portée stratégique. Commencez par les tâches à haut volume et à faible risque pour lesquelles il est déjà prouvé que l’IA surpasse ou égale les performances humaines. C’est la seule façon d’obtenir un avantage concurrentiel.

Les problèmes de confiance et de réglementation limitent l’utilisation de l’IA dans les secteurs à fort enjeu

Dans des secteurs comme le droit, la fiscalité et les organismes publics, l’adoption de l’IA se heurte à des frictions, non pas parce que les gens ne voient pas son potentiel, mais parce qu’ils ne lui font pas encore confiance. Cette distinction est importante. Près de 90 % des professionnels pensent que l’IA pourrait jouer un rôle dans leur secteur d’activité. Mais ils sont beaucoup moins nombreux à penser qu’il faut l’appliquer, du moins pas tout de suite.

Les raisons se résument au risque, à la précision et à la responsabilité. Ces secteurs gèrent des données sensibles, des cadres de conformité stricts et des enjeux de réputation qui ne laissent pas beaucoup de place à l’erreur. Tant qu’il n’y aura pas réglementation plus stricte et des lignes directrices opérationnelles plus claires, les dirigeants de ces secteurs seront prudents, et ce de manière rationnelle.

L’IA dans les services professionnels n’est pas une simple question d’automatisation. Soit elle fonctionne avec une précision acceptable, soit elle n’a pas sa place dans le circuit décisionnel. Les professionnels du droit, en particulier, s’inquiètent de questions telles que la pratique non autorisée du droit. Selon une récente enquête de Thomson Reuters, 73 % des juristes interrogés considèrent qu’il s’agit d’une menace majeure ou modérée. Une inquiétude similaire existe dans les fonctions fiscales et d’audit, où la responsabilité n’est pas négociable.

Les dirigeants de ces secteurs doivent penser de manière tactique. Utilisez l’IA lorsqu’elle accélère les processus contrôlés par l’homme, comme l’examen des contrats ou l’aide à la détection des fraudes, et non lorsqu’elle remplace le jugement, les conseils juridiques ou la responsabilité finale. Cet alignement améliore la productivité sans rompre la confiance.

Le rapport « 2025 Generative AI in Professional Services Report » de Thomson Reuters illustre clairement cette position : seuls 22 % environ ont adopté l’IA, tandis qu’une grande partie est encore en train de l’évaluer ou ne prévoit pas de l’utiliser dans l’immédiat. L’enthousiasme est là, mais pas l’infrastructure ni les garde-fous. Construisez les deux, et l’adoption de l’IA se développera là où c’est le plus important.

Les inquiétudes concernant le déplacement d’emplois et l’utilisation abusive de l’IA suscitent des réticences quant à son adoption

Dans tous les secteurs professionnels, on craint de plus en plus que l’IA ne se contente pas de modifier le travail, mais qu’elle l « élimine. Et de nombreuses personnes n’ont pas tort de penser cela. Dans les professions juridiques et fiscales en particulier, la crainte est directe : 50 % des fiscalistes et près de deux tiers des juristes considèrent l’IA comme une menace réelle pour la sécurité de l’emploi. Ces chiffres ne sont pas marginaux. Ils reflètent une réaction légitime face à la rapidité d » évolution de cette technologie.

Mais il ne s’agit pas seulement d’automatisation. Il y a des frictions supplémentaires autour de l’utilisation abusive de l’éthique. Dans le domaine juridique, par exemple, 73 % des professionnels interrogés par Thomson Reuters ont indiqué que la pratique juridique sans licence via l’IA constituait une menace majeure ou modérée. Les juristes veulent utiliser l’IA pour gérer les tâches routinières et répétitives, mais ils sont très réticents lorsqu’il s’agit de responsabilités qui comportent un risque juridique ou qui requièrent un pouvoir discrétionnaire.

Ce que cela signifie pour les dirigeants est simple : la clarté stratégique est importante. Vous ne pouvez pas vous contenter de déployer l’IA à grande échelle en espérant que les gens s’adapteront. Qu’il s’agisse des services juridiques, de l’audit ou de la gestion des risques, il s’agit de personnes dont les performances sont étroitement liées aux résultats réglementaires. Ils doivent avoir la certitude que l’IA ne compromet pas leur valeur ou n’introduit pas d’exposition évitable.

Pour surmonter les résistances, les entreprises doivent définir très clairement les domaines dans lesquels l’IA améliore les capacités et ceux dans lesquels elle ne sera pas autorisée à aller trop loin. Il est également nécessaire d’améliorer les compétences et la communication interfonctionnelle. Si votre objectif final est de maximiser le temps consacré à des tâches de grande valeur, le personnel doit considérer l’automatisation non pas comme une menace, mais comme un changement, qui ne peut s’opérer que si les dirigeants font preuve de transparence.

Il existe un fossé entre l’adoption de l’IA à des fins personnelles et professionnelles.

La plupart des professionnels connaissent les outils d’IA. Ils les utilisent eux-mêmes, sur des applications mobiles, des navigateurs et des appareils. Ils demandent de l’aide à ChatGPT, utilisent régulièrement des assistants vocaux et font confiance aux réponses qu’ils obtiennent. Mais lorsque ces mêmes technologies sont introduites dans le flux de travail d’une entreprise, la réaction change. Il y a de l’hésitation. Il y a des doutes.

Ce manque de confiance n’est pas lié à la technologie. C’est une question de contexte. Les gens ne veulent pas que l’IA prenne des décisions, ou même les aide, dans des tâches qui pourraient avoir un impact sur la conformité, les résultats pour les clients ou la réputation de l’entreprise sans que des garanties soient mises en place. Le même outil qui semble utile dans un cadre personnel est discutable lorsque les décisions ont des conséquences financières, juridiques ou opérationnelles.

Laura Clayton McDonnell, présidente du segment des entreprises chez Thomson Reuters, l’a bien compris lorsqu’elle a déclaré que les gens « ne réfléchiraient même pas à deux fois avant de prendre leur téléphone personnel et de cliquer sur ChatGPT… mais lorsque vous entrez dans l’environnement professionnel, les gens font une pause ». C’est à ce moment-là que la plupart des efforts des entreprises en matière d’IA échouent.

Les dirigeants doivent résoudre la question de savoir comment les utilisateurs franchissent la frontière entre les capacités personnelles et la confiance professionnelle. Cela signifie qu’il faut établir des cas d’utilisation clairs, définir les limites des outils et veiller à ce que la précision et la conformité soient des valeurs par défaut, et non des options. Les environnements professionnels exigent des normes de performance plus élevées. Cela doit être intégré dans la stratégie de mise en œuvre.

Si votre organisation souhaite une large adoption, éliminez l’ambiguïté. Formez le personnel pour qu’il comprenne comment les décisions en matière d’IA sont prises, dans quels domaines on peut lui faire confiance et dans quels domaines on ne peut pas lui faire confiance. Une fois ces limites connues, l’utilisation se normalise et une valeur cohérente et évolutive s’ensuit.

Principaux enseignements pour les dirigeants

  • L’adoption de l’IA est précoce mais réelle : Environ 25 % des organisations ont pleinement mis en œuvre l’IA générative, tandis que 28 % testent des cas d’utilisation ciblés. Les dirigeants devraient investir dès maintenant dans des projets pilotes à faible risque pour rester compétitifs à mesure que l’adoption s’accélère.
  • La formation est le maillon faible : La plupart des employés reçoivent peu ou pas de formation structurée à l’IA, ce qui limite l’efficacité des outils. Donnez la priorité aux programmes de formation pratique pour obtenir de réels retours sur les investissements en matière d’IA.
  • Les gains de productivité sont évidents : deux tiers des utilisateurs de l’IA font état d’améliorations notables de la qualité, du rendement ou des deux. Concentrez-vous d’abord sur les tâches répétitives et lourdes en données, pour lesquelles l’IA est déjà plus performante que les flux de travail manuels.
  • La confiance est un obstacle dans les secteurs réglementés : Dans les domaines du droit, de la fiscalité et de l’administration, les professionnels reconnaissent le potentiel de l’IA mais restent prudents quant à son application à des tâches à haute responsabilité. Les dirigeants devraient déployer l’IA dans des rôles de soutien, et non de prise de décision, jusqu’à ce que la réglementation soit plus claire.
  • Les craintes de perte d’emploi et d’utilisation abusive suscitent des résistances : Les professionnels du droit et de la fiscalité s’inquiètent des suppressions d’emplois et de l’IA qui permet des pratiques contraires à l’éthique. Communiquez clairement les limites et dirigez avec une automatisation spécifique à la tâche pour renforcer la confiance et réduire les réactions négatives.
  • L’écart de confiance entre l’IA personnelle et l’IA professionnelle persiste : Les employés font confiance aux outils d’IA pour leur usage personnel, mais hésitent dans le cadre professionnel en raison de préoccupations liées à la conformité et à la précision. Établissez des lignes directrices et des cas d’utilisation clairs pour combler le fossé de la confiance et permettre une adoption sûre et confiante.

Alexander Procter

juin 5, 2025

13 Min