L’adoption des assistants d’IA reste limitée malgré un intérêt croissant

Nous constatons une réelle dynamique autour des assistants IA dans les entreprises, mais l’adoption à grande échelle reste lente, plus lente qu’elle ne devrait l’être. La plupart des entreprises en sont encore à des projets pilotes ou à des déploiements limités. Il s’agit d’une hésitation fondée sur la prise de conscience des risques, et non d’un manque d’ambition. Les dirigeants veulent être sûrs. Ils ne veulent pas de systèmes qui font perdre du temps ou qui compromettent des données sensibles. Ils veulent des informations claires sur la valeur et la fiabilité.

C’est juste. En même temps, l’intérêt est indéniable. Microsoft 365 Copilot, ChatGPT d’OpenAI, Gemini de Google et d’autres outils similaires gagnent du terrain. Mais les données d’utilisation révèlent la vérité qui se cache derrière les gros titres. Selon Gallup, seuls 18 % des travailleurs américains utilisent des outils d’IA chaque semaine. Seuls 8 % les utilisent quotidiennement. L’enquête mondiale de PwC est similaire : seuls 6 % des 50 000 travailleurs interagissent quotidiennement avec des agents d’IA.

Qu’est-ce qui retient les entreprises ?

Tout d’abord, le retour sur investissement n’est pas toujours évident. Il ne suffit pas de brancher un assistant pour que la productivité monte en flèche. Il faut du temps, de la formation et un processus clair. Sans ces éléments, le potentiel reste inexploité. Deuxièmement, les entreprises s’inquiètent des conséquences involontaires, de la surexposition des données, des erreurs d’utilisation ou même simplement de la confusion. Ces inquiétudes sont justifiées, mais elles ne sont pas à la hauteur des possibilités offertes par une stratégie soigneusement mise en œuvre.

Les dirigeants devraient profiter de cette phase de déploiement prudent pour mettre en place les principes fondamentaux. Il s’agit notamment de fournir aux équipes des cas d’utilisation pratiques, de mesurer l’impact et de veiller à ce que les garde-fous de sécurité soient en place dès le premier jour. Les entreprises qui y parviennent dès maintenant iront plus vite par la suite. Il s’agit de renforcer la confiance interne, car le marché n’attend pas.

La sécurité, la gouvernance et la confiance restent des obstacles importants au déploiement généralisé de l’IA.

La sécurité reste la préoccupation numéro un, et pour cause. Les assistants d’IA touchent des données sensibles de l’entreprise. Si la mauvaise personne voit le mauvais document, c’est un grave problème. La gouvernance et la confiance ne sont pas des atouts. Ce sont des conditions préalables. Sans elles, les outils d’IA ne pourront pas être mis à l’échelle. Point à la ligne.

Ethan Ray, de 451 Research, l’a dit clairement : la confiance dépend de la gouvernance, de l’observabilité et de la sécurité. Ces systèmes doivent être transparents, précis et fiables. S’ils ne le sont pas, les gens ne les utiliseront pas. Ou pire, ils les utiliseront à mauvais escient. Vous devez construire des systèmes auxquels les gens peuvent faire confiance. Et cette confiance commence par le leadership.

Ensuite, il y a la « prolifération des agents ». C’est le cas lorsque les employés créent ou utilisent un trop grand nombre d’assistants sans surveillance. Il devient difficile de gérer ou de contrôler les résultats lorsqu’il y a des dizaines (ou des centaines) d’agents qui travaillent sans aucune limite. Le problème s’aggrave rapidement. Max Goss, de Gartner, prévient que ce problème s’aggravera en 2025, notamment parce que Microsoft prévoit des intégrations plus poussées avec d’autres modèles d’IA comme celui d’Anthropic.

Ne négligez pas non plus les infrastructures telles que le protocole de contexte de modèle (MCP) d’Anthropic Model Context Protocol (MCP) d’Anthropicd’Anthropic, qui relie différents agents d’intelligence artificielle. Irwin Lazar, de Metrigy, a fait remarquer que les serveurs MCP relient les systèmes entre eux et deviennent des cibles de grande valeur. Les pirates recherchent la valeur, et ces serveurs pourraient devenir des portes d’entrée dans votre entreprise s’ils ne sont pas correctement sécurisés.

Les dirigeants devraient dès à présent penser en termes de gouvernance adaptative. Cela signifie qu’il faut fixer les niveaux de sécurité en fonction des risques, ne pas bloquer le progrès, mais le guider. Laissez les utilisateurs expérimenter en toute sécurité. Définissez des zones où l’innovation peut avoir lieu sans exposer l’ensemble des opérations. La gouvernance n’est pas de la bureaucratie, c’est la structure qui vous permet de développer l’innovation sans casser les choses.

Résolvez la question de la confiance et de la sécurité dès le début, et l’évolution sera beaucoup plus facile. Sinon, les risques s’accumulent et bloquent tout.

Les entreprises passent d’une phase expérimentale à une adoption plus large des assistants d’IA.

Le passage de l’essai de l’IA à son utilisation dans le travail quotidien est enfin en train de se produire, mais pas encore partout. À mesure que la technologie se stabilise et que les fournisseurs améliorent les capacités d’IA intégrées dans les piles logicielles existantes, les entreprises gagnent en confiance. La phase expérimentale cède la place aux opérations réelles dans les principales organisations, en particulier dans les plateformes de collaboration.

Irwin Lazar, analyste principal chez Metrigy, constate que les entreprises sortent du mode pilote. Son point de vue est étayé par les tendances en matière d’adoption. Selon 451 Research, l’utilisation de l’IA générative par les entreprises devrait augmenter considérablement, passant de 27 % à 40 % au cours des 12 prochains mois. Il ne s’agit pas de spéculation, mais d’un élan directionnel soutenu par une planification prospective au sein de l’entreprise.

Les entreprises ne se contentent plus d’essayer l’IA. Nombre d’entre elles ont déjà des agents en production. L’accent est désormais mis sur la valeur mesurable, la réduction des tâches manuelles, l’amélioration du temps de réponse et de la productivité. Les dirigeants qui voient la vitesse et l’ampleur que l’IA peut apporter ne se contentent plus d’évaluer, ils déploient.

L’assistant IA de Microsoft se taille la part du lion. Gartner a constaté que 86 % des responsables informatiques accordent la priorité à Microsoft 365 Copilot au cours des 12 prochains mois. C’est un signal. L’intérêt est réel, même si les déploiements restent prudents. ChatGPT suit de près, avec 56 % des responsables informatiques qui prévoient un déploiement au sein des équipes. Ce qu’il faut retenir, c’est que les outils ne sont plus expérimentaux, ils sont en cours d’opérationnalisation.

Les dirigeants doivent agir en conséquence. La formation, la gestion du changement et les indicateurs clés de performance mesurables doivent aller de pair avec le déploiement de l’IA. Attendre la maturité n’est plus une stratégie viable. Les pionniers de l’adoption sont déjà en train de définir de nouvelles meilleures pratiques, et leur élan ne fera que s’accélérer.

L’augmentation de l’interconnectivité entre les assistants d’intelligence artificielle grâce à des protocoles avancés améliore la productivité globale.

Les assistants d’IA qui fonctionnent avec un seul outil ont des limites. Les employés ne travaillent pas de cette manière. Ils utilisent plusieurs plateformes dans différents services, parfois dans différentes fonctions. Si les systèmes d’IA ne peuvent pas communiquer entre ces plateformes, l’expérience utilisateur se dégrade. La productivité stagne. Cette situation est en train de changer rapidement.

Les fournisseurs reconnaissent désormais la valeur de la communication inter-agents. Les protocoles Model Context Protocol (MCP) d’Anthropic et Agent2Agent (A2A) de Google sont conçus pour connecter différents assistants d’intelligence artificielle afin qu’ils travaillent ensemble dans des espaces de travail numériques. Il s’agit de la prochaine étape de l’intelligence logicielle, qui consiste à coordonner les assistants d’intelligence artificielle plutôt que de les isoler.

La mise en œuvre a déjà commencé. Les serveurs MCP sont intégrés dans des produits de productivité et de collaboration. Irwin Lazar note que cela permet aux entreprises d’assigner un modèle d’IA comme assistant principal, tout en obtenant des données à partir de divers systèmes secondaires. Cette structure réduit les interruptions du flux de travail et permet aux employés de demander des résumés, des mises à jour ou des tâches sur différentes plateformes sans avoir à se connecter plusieurs fois ou à sauter d’un outil à l’autre.

L’objectif est clair : réduire les frictions, améliorer le temps de réponse et centraliser la visibilité. Mais cela n’est pas sans poser de nouveaux défis. M. Lazar a également mis en garde contre le fait que les serveurs MCP sont susceptibles de devenir des cibles prioritaires pour les cyberattaques en raison des données qu’ils rassemblent. Ce risque n’invalide pas la conception, il exige simplement de meilleures mesures de protection.

Will McKeon-White, de Forrester, estime que la plupart des plates-formes comprennent désormais la nécessité d’une orchestration entre fournisseurs. Le travail ne reste pas confiné à une seule application. Et les systèmes d’IA qui restent liés à une application ne sont pas à la hauteur. Selon lui, cette interopérabilité n’est plus facultative, elle est nécessaire.

Pour les dirigeants qui planifient les futures feuilles de route, l’alignement des systèmes sur des protocoles interopérables est une démarche stratégique. Elle permet d’éviter les silos et de réaliser des gains de performance. Mais cela nécessite également des politiques d’accès strictes, des couches d’audit et des mises à jour cohérentes, en particulier au niveau des points d’intégration. La flexibilité sans contrôle n’est pas envisageable. L’interopérabilité doit être sécurisée par une conception intentionnelle.

Des stratégies de gouvernance robustes sont essentielles pour développer l’IA tout en atténuant les risques.

L’IA évolue rapidement, mais les risques ne disparaissent pas pour autant. Alors que de plus en plus d’équipes d’entreprise déploient des assistants d’IA et mélangent des modèles provenant de plusieurs fournisseurs, dont OpenAI et Anthropic, la gestion de ces systèmes devient de plus en plus complexe. Vous ne voulez pas d’environnements remplis d’assistants qui travaillent de manière indépendante sans surveillance. C’est inefficace et dangereux.

Max Goss, Senior Director Analyst chez Gartner, a parlé en détail du problème croissant de la « prolifération des agents ». À mesure que les outils d’IA tels que Microsoft 365 Copilot sont connectés à un ensemble plus large de modèles, la pression de la gouvernance augmente. Un problème immédiat : Copilot de Microsoft a désormais la possibilité de se connecter au modèle d’Anthropic, qui fonctionne au sein d’Amazon Web Services (AWS). Microsoft ne l’héberge pas. Cela crée un écosystème de confiance distribué. Les dirigeants doivent comprendre ce que cela signifie pour la conformité, la visibilité et la posture de sécurité.

La solution n’est pas de bloquer l’utilisation de l’IA. Il s’agit de formaliser la manière dont elle évolue. Goss recommande une gouvernance adaptative. C’est simple. Définissez des cadres politiques basés sur le risque. Permettez aux agents à faible risque d’opérer dans des environnements clairement définis, avec un minimum de friction. Pour les modèles ou les accès aux données présentant un risque plus élevé, appliquez des contrôles plus stricts, plus de journalisation, plus d’examen.

Irwin Lazar a souligné que nombre de ces systèmes d’intelligence artificielle servent désormais de passerelles vers des données sensibles de l’entreprise. C’est notamment le cas des serveurs Model Context Protocol (MCP), utilisés pour interconnecter les agents d’IA. En l’absence d’une gouvernance appropriéeSans une gouvernance appropriée, ces points d’extrémité deviennent des responsabilités. Des garde-fous solides ne sont pas négociables.

Les dirigeants doivent investir dans des politiques normalisées, des points d’application techniques et la formation continue des équipes internes à la gestion des modèles. La gouvernance ne ralentit pas l’adoption, c’est ce qui permet l’adoption à grande échelle. Les entreprises qui établissent des cadres de confiance dès le départ trouveront l’IA beaucoup plus facile à développer par la suite. Il s’agit d’un défi d’exécution. Il ne s’agit pas d’une limitation technologique.

La concurrence entre les fournisseurs d’assistants d’IA s’intensifie, ce qui incite les entreprises à diversifier leurs stratégies.

Les entreprises ne choisissent pas un seul assistant d’IA, mais plusieurs. Presque tous les grands fournisseurs disposent désormais d’un produit d’IA générative. Microsoft a Copilot. OpenAI a ChatGPT. Google a lancé Gemini. Claude d’Anthropic et Q d’Amazon gagnent également du terrain. Pour être compétitif dans cet environnement, il faut faire preuve d’agilité et non d’allégeance.

L’enquête de Gartner le confirme : seules 8 % des organisations se sont engagées à utiliser un seul outil d’IA. L’entreprise moyenne utilise au moins trois assistants d’IA de niveau professionnel. Cela signifie que le paysage est fragmenté, que la demande est forte et qu’aucun fournisseur n’a encore verrouillé l’espace. Microsoft est le leader en termes de partage des connaissances, mais il n’est pas le seul à pouvoir répondre à la demande. Cela indique clairement que le marché est très ouvert.

Max Goss a souligné un élément clé du symposium IT de Gartner : l’intérêt marqué pour les versions payantes et gratuites de M365 Copilot. 86 % des responsables informatiques l’ont placé en tête de leurs priorités. Cependant, 56 % d’entre eux ont également l’intention de déployer ChatGPT en interne. Cela signifie que les entreprises veulent de la flexibilité. Elles veulent une puissance spécifique au domaine, un contrôle des coûts et des options d’intégration. Et à l’heure actuelle, aucun outil ne remplit toutes les conditions.

Ce qui compte maintenant, c’est de savoir si votre stratégie d’IA s’aligne sur votre architecture. Les décideurs doivent se poser les questions suivantes : les assistants déployés permettent-ils de résoudre des problèmes de flux de travail réels ? Les intégrations sont-elles sécurisées, mesurables et gouvernées ?

Il n’y a pas d’intérêt stratégique à verrouiller les fournisseurs si cela limite les capacités. D’autre part, les déploiements multifournisseurs sans structure créent des doublons et des failles de sécurité. La clarté de l’utilisation, les protocoles d’orchestration normalisés et les critères d’évaluation transparents des modèles sont les fondements de la réussite dans cet environnement.

La concurrence entre les fournisseurs est favorable à l’innovation dans les entreprises. Mais le succès dépendra de la rigueur de votre stratégie de déploiement, et non du nombre d’agents testés par vos équipes.

Principaux enseignements pour les décideurs

  • L’adoption de l’IA reste limitée : De nombreuses organisations en sont encore aux phases pilotes, avec seulement 8 à 18 % des travailleurs utilisant des outils d’IA quotidiennement ou hebdomadairement, ce qui révèle un décalage évident entre l’intérêt et l’exécution à l’échelle de l’entreprise. Les dirigeants devraient définir des cas d’utilisation clairs et mesurer rapidement le retour sur investissement afin d’accélérer le déploiement.
  • Les problèmes de sécurité et de confiance bloquent l’échelle : Les lacunes en matière de gouvernance, les risques de partage excessif et la prolifération des agents sont des obstacles majeurs à une adoption plus large. Les dirigeants doivent investir dans des modèles de gouvernance adaptatifs et des protocoles de données sécurisés pour faire évoluer l’IA en toute sécurité.
  • Les entreprises passent des projets pilotes à la production : L’intérêt des entreprises évolue vers un déploiement actif, l’utilisation de l’IA générative devant passer de 27 % à 40 % au cours de l’année prochaine. Les dirigeants doivent donner la priorité à la préparation interfonctionnelle, de l’intégration technique à l’habilitation du personnel.
  • La connectivité inter-agents augmente la valeur : Les assistants d’intelligence artificielle enfermés dans des plateformes uniques limitent leur utilité. Des protocoles comme MCP et Agent2Agent permettent une collaboration multi-agents. Les décideurs devraient aligner les outils des fournisseurs sur des protocoles d’intégration ouverts et sécurisés afin de maximiser la productivité.
  • La gouvernance permet l’évolutivité : Au fur et à mesure que les assistants se connectent à des modèles externes, tels que celui d’Anthropic via AWS, la complexité augmente. Les dirigeants devraient adopter des stratégies de gouvernance adaptatives qui établissent un équilibre entre l’expérimentation en toute sécurité et le contrôle opérationnel.
  • La concurrence du marché favorise les déploiements multi-assistants : La plupart des entreprises déploient aujourd’hui en moyenne trois outils d’IA, ce qui permet d’éviter le verrouillage des fournisseurs. Les dirigeants devraient concevoir des écosystèmes d’IA qui équilibrent les capacités spécialisées avec des cadres d’intégration et de sécurité gérables.

Alexander Procter

février 5, 2026

14 Min