Les entreprises vont s’orienter vers des stratégies d’IA conscientes des risques et supervisées par l’homme.

Nous observons les entreprises prendre conscience d’une chose essentielle : L’IA ne peut pas fonctionner sans l’aide de l’homme.surtout à l’échelle et au rythme exigés par les entreprises. L’IA générative, en particulier les grands modèles de langage, peut sembler impressionnante à première vue, mais le résultat n’est pas toujours cohérent. Pour les industries où la conformité, la précision et la répétabilité sont importantes, une telle irrégularité est un risque que les dirigeants ne sont pas prêts à prendre à la légère.

Jake Williams, vice-président de la R&D chez Hunter Strategy et professeur à l’IANS Research, l’a dit clairement : la plupart des applications LLM ne sont que « presque correctes la plupart du temps ». Ce n’est pas suffisant lorsque vos opérations dépendent d’un fonctionnement correct à chaque fois. Les entreprises s’en rendent compte et commencent à se détourner des programmes d’IA qui ne répondent pas à ces critères. Les projets sont redéfinis, reportés ou complètement abandonnés parce que les risques, notamment réglementaires, l’emportent sur les avantages abstraits.

Cela ne signifie pas que l’IA est surestimée. Cela signifie que le modèle de mise en œuvre a simplement besoin d’être réinitialisé. Les entreprises intelligentes commencent désormais leur architecture d’IA par une modélisation traditionnelle des menaces, une approche tirée de manuels de cybersécurité matures. On s’éloigne ainsi de l’état d’esprit « aller vite et tout casser » qui caractérisait les premières expérimentations en matière d’IA. La discipline d’ingénierie revient sur le devant de la scène, et c’est une bonne chose.

Si vous dirigez une entreprise désireuse de déployer l’IA à grande échelle, il est temps d’éliminer les projets dont les risques ne sont pas correctement atténués. Le marché récompense la précision. Traitez vos systèmes d’IA comme n’importe quelle autre application critique : testez, validez, gouvernez, répétez. Les entreprises qui gardent leur IA ancrée dans la supervision humaine seront en avance sur celles qui délèguent aveuglément aux machines.

Les efforts en matière d’IA donneront la priorité aux résultats commerciaux plutôt qu’à l’expérimentation d’outils.

Nous avons vu trop d’entreprises se lancer dans l’IA comme des touristes dans une nouvelle ville, sans carte ni destination prévue. Un bon leadership technologique commence par la clarté : Quel est le problème que vous résolvez ? Quelle est la valeur ajoutée ? John Dawson, directeur de Creative ITC, a mis le doigt sur le problème lorsqu’il a déclaré que la plupart des entreprises ont expérimenté des outils d’IA sans avoir au préalable défini clairement leurs objectifs. Ce n’est pas de la stratégie, c’est de l’improvisation déguisée en innovation.

Ce qui change aujourd’hui, c’est l’intelligence : les organisations sont en train d’inverser la tendance. Au lieu d’expérimenter des outils pré-construits et de procéder à une rétro-ingénierie de leur valeur, elles partent d’objectifs commerciaux réels. Des objectifs tels que l’amélioration du chiffre d’affaires, la réduction des coûts ou l’amélioration de l’efficacité des processus. Une fois que ces priorités sont claires, les équipes élaborent des solutions sur mesure en s’appuyant sur un environnement de données commun (CDE). Ce type de développement ciblé et aligné sur les données est exactement ce qui a manqué à l’espace IA de l’entreprise.

Les projets sont désormais censés prouver leur rentabilité dans un délai de trois à six mois. Si la valeur n’est pas démontrée, le projet pilote prend fin. Il s’agit là d’une gouvernance efficace. Elle pousse les équipes à développer des solutions qui peuvent être mesurées, suivies et ajustées, et non tolérées simplement parce qu’elles impliquent l' »IA ».

Pour que ce changement soit possible, il ne faut pas que les services informatiques soient les seuls à s’impliquer. Vous avez besoin d’équipes interfonctionnelles. Les parties prenantes des produits, des opérations, de la sécurité et les utilisateurs de première ligne doivent être impliqués dès le premier jour. Les analystes doivent mesurer, les chefs d’entreprise doivent guider et les utilisateurs doivent valider le fonctionnement de la solution en conditions réelles. S’appuyer uniquement sur une équipe technologique est une stratégie à courte vue qui ne permettra pas d’atteindre l’échelle voulue.

Il ne s’agit pas d’utiliser l’outil le plus récent. Il s’agit de résultats. Si votre IA n’est pas directement liée à l’amélioration des résultats de l’entreprise, c’est une distraction. Les dirigeants qui concentrent leurs ressources sur des performances mesurables seront ceux qui feront de l’IA un moteur de profit.

Les modèles « human-in-the-loop » (l’homme dans la boucle) deviendront essentiels pour une intégration efficace de l’IA

Un changement est en train de s’opérer, et il n’a que trop tardé. Les entreprises commencent à se rendre compte que l’IA entièrement autonome n’apporte pas une valeur constante. L’IA sans contexte humain conduit à un désalignement entre la technologie et les résultats de l’entreprise. Ce dont vous avez besoin, c’est d’un système dans lequel les humains restent impliqués, avant, pendant et après les décisions de l’IA, pour garantir la précision, le contrôle et l’adaptabilité.

Laura Wenzel, Global Market & Insights Director chez iManage, l’a clairement expliqué. Les déploiements d’IA qui font l’impasse sur une contribution humaine significative n’apportent que peu de valeur réelle. L’enthousiasme des dirigeants n’a pas été suivi de l’adoption par les utilisateurs. Pourquoi ? Parce que nombre de ces projets n’ont pas réellement résolu les problèmes de l’entreprise. Au lieu de cela, ils ont fourni des outils qui semblaient avancés sur le papier, mais qui n’ont pas trouvé d’écho auprès des personnes qui les utilisaient au quotidien.

Aujourd’hui, nous assistons à une correction. Les décideurs apprennent que l’IA fonctionne mieux lorsqu’elle est intégrée dans des flux de travail où les humains continuent de diriger les processus clés. Cela ne signifie pas qu’il faille ralentir l’innovation, mais qu’il faut construire des systèmes qui apprennent à partir du contexte réel, exploités par des personnes qui connaissent le domaine, le problème et les enjeux. Il doit être dirigé par des praticiens : des utilisateurs professionnels, des décideurs, des experts du domaine et des ingénieurs travaillant ensemble pour construire quelque chose qui fonctionne réellement sur le terrain.

Pour les dirigeants, il s’agit d’un pivot stratégique dans lequel il vaut la peine d’investir. Il garantit que la technologie ne dépasse pas la capacité de l’organisation à la comprendre ou à la gouverner. La conception « human-in-the-loop » redonne le contrôle à l’entreprise, rendant l’IA digne de confiance, explicable et plus en phase avec la prise de décision en temps réel. Ce n’est pas seulement plus sûr, cela donne de meilleurs résultats.

La spécialisation des rôles de l’IA et les rôles de collaboration entre l’homme et l’IA vont émerger.

L’intégration significative de l’IA dans les processus d’entreprise ne se limite pas à l’embauche de data scientists et d’ingénieurs. Ce qui se profile, c’est l’émergence de rôles de spécialistes axés sur l’interaction entre l’homme et l’IA. Les organisations sont déjà en train d’embaucher pour ces postes : Spécialistes de l’intégration de l’IA, Architectes de l’IA éthique, Concepteurs de conversations sur l’IA, et autres talents axés sur la façon dont l’IA s’intègre dans la culture de l’entreprise et les opérations quotidiennes.

Laura Wenzel a clairement indiqué qu’il ne s’agit pas de théorie, mais que c’est déjà le cas. Au fur et à mesure que les entreprises font progresser l’IA en la structurant et en la ciblant davantage, elles reconnaissent des lacunes qui ne peuvent être comblées par des rôles génériques. Pour que l’IA soit liée à des résultats réels, vous avez besoin de personnes qui comprennent à la fois l’utilisateur et le système. C’est là que ces nouveaux rôles entrent en jeu.

C’est une bonne nouvelle pour les entreprises désireuses d’investir dans les capacités. Ces rôles ne concernent pas seulement les opérations, la conformité ou l’UX, ils sont essentiels pour libérer de la valeur. Les bons talents veillent à ce que le comportement de l’IA soit guidé par la logique de l’entreprise, les limites éthiques et les attentes des utilisateurs. C’est ainsi que vos systèmes d’IA restent réactifs et adaptatifs, et non pas rigides ou imprévisibles.

Du point de vue du leadership, il ne s’agit pas seulement de recrutement, mais aussi de positionnement. Les dirigeants qui perçoivent l’importance stratégique de ces rôles mettront en place une IA qui produira des résultats à grande échelle. Ceux qui traitent l’IA comme une solution prête à l’emploi sans adapter l’organigramme et les flux de travail prendront du retard. Les résultats ne proviennent pas uniquement du code, mais aussi des personnes qui savent comment le guider.

Les entreprises qui réussissent traiteront l’IA comme un « coéquipier ».

L’IA ne remplace pas les personnes, elle renforce leurs capacités. C’est le changement d’état d’esprit qu’adoptent les dirigeants avant-gardistes. Les organisations qui ont continué à réclamer une autonomie totale dans les projets d’IA sont aujourd’hui confrontées à des baisses de performance inattendues. Ce que nous verrons en 2026 est beaucoup plus ancré : L’IA fonctionne mieux lorsqu’elle est traitée dans le cadre d’une collaboration plus large entre les systèmes et les personnes.

Laura Wenzel, Global Market & Insights Director chez iManage, l’a clairement souligné. La phase initiale de déploiement de l’IA, motivée par un battage médiatique intense, a créé un décalage entre l’enthousiasme des dirigeants et la valeur pour l’utilisateur final. Les projets ont été lancés rapidement, mais sans but précis. Cette phase est en train de s’achever. Elle est remplacée par une exécution délibérée, guidée par l’homme.

Il s’agit de rendre l’IA fiable, conçue pour travailler avec des personnes qui fournissent la connaissance du contexte et la prise de décision que l’IA ne peut pas reproduire. L’IA s’acquitte bien des tâches structurées, de l’analyse des données et de la génération de contenu. Mais elle ne fonctionne pas avec l’intuition, l’éthique ou l’adaptabilité humaines. Les systèmes les plus efficaces en 2026 seront ceux qui maintiendront l’engagement des humains dans les domaines où le jugement est important.

Les dirigeants doivent agir dès maintenant. Déléguer trop de choses à l’IA sans prévoir de garde-fous humains conduira à des décisions qui ne résisteront pas à un examen approfondi. Traitez l’IA comme un outil entre les mains de personnes intelligentes. Avec une supervision et une collaboration adéquates, elle devient un multiplicateur de performance. Sans cet alignement, elle devient imprévisible. Les dirigeants qui considèrent l’IA comme un membre de l’équipe, et non comme un système autonome, obtiendront de meilleurs résultats que ceux qui restent bloqués sur l’automatisation totale.

Les architectures d’IA basées sur des agents nécessiteront des flux de travail centralisés et optimisés ainsi qu’une interopérabilité.

Les systèmes basés sur des agents, des programmes d’intelligence artificielle qui fonctionnent de manière semi-indépendante, gagnent du terrain. Mais ils ne conviennent pas à tout le monde, du moins pas encore. Seul un sous-ensemble d’organisations disposant de processus internes matures et d’environnements de données centralisés est en mesure de bénéficier de systèmes d’IA autonomes. Pour toutes les autres, il s’agit d’un objectif futur qui nécessite d’abord un travail de fond opérationnel.

Laura Wenzel a souligné le rôle d’une nouvelle norme, le Model Context Protocol (MCP)en tant que couche critique pour l’interopérabilité. Il relie différents modèles et sources, ce qui permet à de multiples agents d’intelligence artificielle de fonctionner sur différentes plateformes de manière coordonnée. Lorsque cela est fait correctement, ces agents peuvent réduire la charge humaine et augmenter le débit opérationnel. Le problème est qu’en l’absence de flux de travail rationalisés, ces systèmes deviennent difficiles à gouverner et présentent plus de risques que de bénéfices.

Le déploiement de l’IA agentique sans préparation entraîne des conséquences imprévues, des décisions déconnectées, une utilisation fragmentée des données et des lacunes en matière de responsabilité. Les organisations qui ne disposent pas de procédures opérationnelles clairement définies passeront plus de temps à résoudre les problèmes qu’à dégager de la valeur. Le MCP fonctionne, mais seulement lorsqu’il est associé à des structures internes solides.

Pour les dirigeants qui souhaitent s’engager dans cette voie, la stratégie consiste à se préparer. Cela signifie qu’il faut documenter les flux de travail, centraliser les systèmes de données et mettre en place des mécanismes de contrôle qui garantissent que chaque décision prise par un agent peut être tracée et justifiée. Ne déployez pas l’IA autonome si vos opérations internes ne sont pas prévisibles, vérifiables et alignées sur les règles de l’entreprise.

Les architectures d’agents ont une grande valeur. Mais elles exigent clarté et discipline pour fonctionner de manière responsable. Les entreprises qui investissent aujourd’hui du temps pour mettre en place cette infrastructure seront celles qui mèneront le déploiement de l’IA agentique dans les années à venir.

Principaux enseignements pour les décideurs

  • Recalibrage de l’IA en fonction des risques : Les entreprises réduisent les déploiements d’IA non supervisée et adoptent la modélisation des menaces pour gérer les résultats incohérents du LLM. Les dirigeants doivent donner la priorité aux systèmes d’IA qui respectent les seuils de conformité et de risque afin d’éviter les retombées réglementaires et les interruptions d’activité.
  • Une stratégie d’IA axée sur les résultats : Les organisations passent de la recherche d’outils à des initiatives axées sur les cas d’utilisation. Les dirigeants devraient fixer des objectifs commerciaux clairs et des critères de retour sur investissement avant de donner le feu vert aux projets d’IA.
  • Priorité à l’humain dans la boucle : L’IA est en train d’être restructurée pour fonctionner sous la direction de l’homme, en s’alignant mieux sur le contexte de l’entreprise et les besoins de l’utilisateur final. Les dirigeants doivent veiller à ce que l’IA reste réaliste et efficace grâce à l’implication des praticiens et des fonctions transversales.
  • Des rôles spécialisés dans l’IA apparaissent : De nouvelles fonctions telles que le spécialiste de l’intégration de l’IA et l’architecte de l’IA éthique sont désormais essentielles à l’alignement des systèmes. Les dirigeants doivent investir dans des talents ciblés pour favoriser une adoption évolutive et responsable de l’IA.
  • L’IA, un collaborateur à part entière : Les entreprises apprennent que les agents autonomes sans supervision humaine créent des frictions opérationnelles. Les dirigeants devraient structurer l’IA de manière à augmenter, et non à remplacer, la prise de décision humaine afin d’améliorer le contrôle et les résultats.
  • L’IA agentique a besoin d’une maturité opérationnelle : Les agents autonomes d’IA n’apportent de la valeur que lorsque les flux de travail sont centralisés et normalisés. Les entreprises devraient investir dans des processus optimisés et des protocoles d’interopérabilité tels que MCP avant de développer des systèmes basés sur des agents.

Alexander Procter

décembre 16, 2025

13 Min