Mettre en place des structures de gouvernance de l’IA pour une innovation ciblée

Beaucoup d’entreprises traitent encore l’IA comme une expérience scientifique, avec des pilotes dispersés, des POC déconnectés et peu de résultats. C’est très bien au début. Mais à grande échelle, ce caractère aléatoire vous ralentit. Les organisations qui gagnent avec l’IA ne se contentent pas d’essayer des choses. Elles construisent des systèmes qui rendent les essais utiles et reproductibles. Walgreens est un bon exemple de réussite dans ce domaine.

Lorsque Dan Jennings est devenu directeur technique de Walgreens en 2023, il a vu une entreprise pleine d’énergie en matière d’IA, mais avec peu de direction. De nombreuses équipes expérimentaient des modèles et des outils, mais chacune d’entre elles agissait de son côté. Ce n’est pas de l’innovation. C’est du bruit.

Il a donc créé un centre d’activation de l’IA. Il ne s’agit pas d’une salle physique avec des lumières clignotantes. Il s’agit d’une structure virtuelle, d’équipes interfonctionnelles, de processus normalisés et d’une responsabilité partagée. Le COE relie la technologie, les données, la sécurité et les unités opérationnelles dans un cadre commun. Il a deux avantages : il favorise l’innovation et renforce la cohérence.

Aucun projet n’avance sans une analyse de rentabilité, une feuille de route, des indicateurs clairs et un cycle de test, de l’idée à la preuve de concept (POC), puis au MVP et enfin au MVP. de la preuve de concept (POC) au MVP, jusqu’à l’impact mesurable. C’est ainsi que l’on rend l’innovation prévisible. Et c’est ce que fait désormais Walgreens.

Plus important encore, le Centre d’excellence aide à gérer le compromis entre la rapidité et le risque. Walgreens est à la fois un détaillant et un prestataire de soins de santé. Le commerce de détail évolue rapidement, tandis que les soins de santé nécessitent un contrôle. Avec cette structure, les initiatives d’IA au service du commerce de détail, l’optimisation des stocks, la personnalisation, l’engagement, peuvent évoluer rapidement. Les cas d’utilisation dans le secteur de la santé, comme les prévisions pharmaceutiques ou la planification du personnel, sont acheminés par une voie plus disciplinée avec la supervision nécessaire.

Qu’est-ce qui a changé ? L’enthousiasme s’est transformé en intention. Les actes aléatoires d’intelligence artificielle sont devenus des flux de travail régis. Ce que les gens considéraient autrefois comme des jouets technologiques est aujourd’hui considéré comme un outil stratégique. Voilà le changement.

Cette approche fonctionne parce qu’elle rend l’IA pratique. Vous ne perdez plus de temps à dupliquer les efforts entre les équipes. Vous arrêtez de « jouer » et commencez à résoudre les problèmes réels qui importent à l’entreprise. Et vous le faites en toute sécurité, à grande échelle.

Mesurer le retour sur investissement de l’IA au-delà des mesures financières traditionnelles

La plupart des dirigeants continuent de répondre par défaut à une question avec les investissements dans l’IA :  » Quel est le retour sur investissement ? » C’est logique, mais c’est aussi incomplet. La valeur de l’IA ne se résume pas à des économies ou à une augmentation du chiffre d’affaires. Les entreprises qui réussissent dans ce domaine élargissent la signification du retour sur investissement.

Prenez FMOL Health. Will Landry, son directeur des systèmes d’information, sait clairement à quoi ressemble la réussite d’un système de soins de santé à but non lucratif. Il ne s’agit pas seulement d’argent. Il s’agit de la satisfaction des médecins, de l’expérience des patients et de la viabilité opérationnelle. L’entreprise a mis en place des systèmes d’écoute ambiante dans des centaines de cliniques. Ces outils réduisent le temps que les médecins passent à rédiger des notes après les heures de travail. Cela permet de réduire l’épuisement professionnel et de passer plus de temps à discuter avec les patients lors des visites. Ce changement, moins d’heures d’écran, plus de soins personnels, est important.

Mais cela ne s’arrête pas au moral du personnel ou au sentiment des patients. Il y a aussi une amélioration sur le plan opérationnel. M. Landry a mis en évidence un signal clé : les dépenses technologiques n’ont pas explosé, même si le système s’est développé. Les recettes et la demande de services ont augmenté, mais les coûts technologiques sont restés stables. Cela signifie que l’IA fait du vrai travail, qu’elle produit plus avec les mêmes ressources. Il s’agit là d’une efficacité tangible.

La même logique s’applique à Steelcase. Steve Miller, son directeur technique, ne considère pas l’IA comme un simple outil de réduction des coûts. Il lie les projets d’IA aux paramètres qui comptent pour cette partie de l’entreprise. Il s’agit parfois de durabilité, de réduction de la consommation d’énergie ou du gaspillage de matériaux. D’autres fois, il s’agit d’améliorer l’expérience des utilisateurs grâce à une conception intelligente des produits. Chez Steelcase, certains systèmes d’IA optimisent les flux de fabrication. D’autres suivent la façon dont les gens interagissent avec leurs solutions d’espace de travail. Les deux types de systèmes génèrent de la valeur, même s’ils n’ont pas d’impact direct sur les résultats.

Pour les équipes dirigeantes, la conclusion est claire. La valeur de l’IA se manifeste dans de multiples dimensions, comme le rendement des employés, la confiance des clients, la durabilité ou l’efficacité de la santé publique. L’objectif étroit du retour sur investissement financier ne permet pas d’en rendre compte. Si vous limitez votre définition du succès à ce qui est facilement quantifiable, vous manquerez la moitié du chemin.

Ce que montrent FMOL Health et Steelcase, c’est que les décisions en matière d’IA nécessitent un modèle de responsabilité plus large, qui inclut des résultats humains et des mesures à long terme. L’efficacité est importante. Mais la résilience, la satisfaction et la réputation comptent tout autant, et l’IA peut les faire évoluer de manière mesurable et significative.

Instaurer la confiance grâce à une gouvernance intégrée et à des garanties éthiques

Si l’IA doit gérer des parties essentielles de votre entreprise, en particulier dans les domaines de la santé, de la finance ou de l’infrastructure, la confiance n’est pas facultative, c’est le point d’entrée. Vous ne pouvez pas faire l’impasse sur la gouvernance et penser que vos équipes ou vos clients se contenteront de suivre le mouvement. Les entreprises qui s’acquittent correctement de cette tâche intègrent la gouvernance dans le processus de construction, et non dans un processus ultérieur.

Will Landry, de FMOL Health, dirige son programme d’IA selon ce principe. Ses outils d’IA aident les médecins à gagner du temps, notamment en matière de documentation. Mais le processus est contrôlé dès le départ. Chaque système impliquant des données sur les patients nécessite un consentement explicite. Toute note assistée par l’IA passe toujours par le médecin avant de se retrouver dans le dossier du patient. Peu importe la précision de la technologie, le contrôle humain est intégré.

Cet état d’esprit s’étend au-delà du cadre clinique. FMOL Health partage également des systèmes avec des cliniques indépendantes par l’intermédiaire de « Community Connect », qui utilise Epic, l’une des principales plateformes de dossiers médicaux électroniques. Cela ouvre la voie à un large flux de données entre les organisations. Pour gérer cela, l’équipe de Landry se coordonne avec les responsables de la sécurité des données et de la protection de la vie privée afin de s’assurer que toutes les utilisations de données liées à l’IA sont conformes et contrôlées. Il ne s’agit pas seulement de cocher des cases, mais de signaler aux patients et au personnel que l’IA est traitée avec soin et responsabilité.

Steelcase aborde la question différemment, mais avec la même intention. Le directeur technique Steve Miller a contribué à la mise en place d’un conseil interfonctionnel de gouvernance des données. Ce conseil examine chaque projet d’intelligence artificielle sous différents angles : confidentialité, sécurité, risque juridique et équité. Il s’agit notamment de définir des politiques concernant les données qui peuvent être utilisées, à quelles fins et à qui appartiennent les résultats. Il ne s’agit pas de théorie. C’est une question opérationnelle. L’entreprise a intégré un spécialiste de la gouvernance au sein de l’équipe de développement de l’IA, une personne dotée d’une réelle autorité pour signaler les problèmes, gérer les risques et veiller à ce que les biais et les abus soient corrigés avant que les outils ne soient expédiés.

Cette structure ne ralentit pas l’innovation, elle la favorise. Lorsque les équipes connaissent les règles dès le départ, elles peuvent agir rapidement dans des limites claires. La gouvernance permet d’agir en toute confiance, en particulier dans les secteurs à fort enjeu où un seul faux pas peut éroder la confiance du jour au lendemain.

Pour les dirigeants de niveau C, le message est simple : Ne séparez pas la confiance de l’exécution. Intégrez-la. Concevez-la. Si vous ne le faites pas, quelqu’un d’autre, les régulateurs, les clients ou votre propre personnel, soulèvera la question pour vous, probablement après que vous ayez exposé un risque. Une bonne gouvernance n’est pas de la paperasserie. C’est une infrastructure pour une innovation durable.

Renforcer l’autonomie des personnes en utilisant l’IA pour accroître l’expertise humaine

Trop d’entreprises considèrent l’IA comme un substitut aux travailleurs. C’est une vision à court terme. Il est plus judicieux d’utiliser l’IA pour augmenter les capacités de vos meilleurs employés, puis de les répartir dans l’ensemble de l’organisation. ZoomInfo a adopté cette approche et les résultats sont clairs.

Russell Levy, directeur de la stratégie chez ZoomInfo, a expliqué que certains de leurs outils d’IA les plus efficaces n’ont pas été conçus par des ingénieurs ou des scientifiques des données. Ils ont été conçus par des représentants commerciaux de première ligne qui comprenaient exactement ce qui fonctionnait dans les conversations réelles. Ces représentants ont conçu des agents d’IA simples pour automatiser les tâches de routine telles que les résumés d’appels, les rappels de suivi et les suggestions de courriels sortants. Les agents ne fonctionnent pas de manière isolée. Ils sont toujours examinés et déployés sous le contrôle d’un humain.

Il ne s’agit pas seulement de créer des outils utiles. Il s’agit de transférer rapidement et à grande échelle des connaissances de grande valeur. Lorsqu’un représentant très performant partage un agent d’IA qui reflète son approche des interactions avec les clients, cette expertise devient accessible à l’ensemble de l’équipe de vente. Cela permet d’élever le niveau de performance de l’ensemble de l’équipe.

Ce passage d’un talent isolé à une capacité partagée se fait naturellement lorsque les gens voient que les outils d’IA sont quelque chose qu’ils peuvent façonner, et pas seulement consommer. Cette philosophie a pris racine dans le flux de travail de ZoomInfo. Les employés non techniques participent désormais au développement de l’IA. L’impact culturel est significatif : les gens se sentent responsabilisés, et non mis à l’écart. Et les taux d’adoption augmentent sans pression supplémentaire, car les outils sont conçus sur mesure par les personnes qui les utilisent réellement.

Ce modèle fonctionne grâce à la clarté des rôles. L’IA aide les employés, mais elle ne prend pas de décisions à leur place. Chaque agent a un humain dans la boucle. Cette limite est essentielle. Elle permet de maintenir la responsabilité et de s’assurer que l’IA reste une amélioration, et non un raccourci qui sacrifie la qualité, la nuance ou le jugement.

Pour les dirigeants, le message clé est le suivant : vous n’avez pas besoin d’automatiser les gens, mais d’amplifier ce que vos meilleurs éléments font déjà bien. Lorsque vous mettez cette capacité entre les mains de l’ensemble de l’équipe, toute votre organisation devient plus intelligente, plus rapide et plus adaptable. Mais cela ne fonctionne que si l’IA reste alignée sur l’expertise humaine et ne la remplace pas.

Principaux enseignements pour les dirigeants

  • Créer une structure pour accroître l’impact de l’IA : Les dirigeants devraient formaliser les initiatives d’IA par le biais de structures de gouvernance partagées, comme un centre d’habilitation, afin de passer de cas d’utilisation épars à des résultats commerciaux mesurables avec une exécution plus rapide et plus sûre.
  • Élargissez les mesures du retour sur investissement au-delà du profit : Les dirigeants devraient mesurer le succès de l’IA non seulement en fonction de la réduction des coûts, mais aussi de son impact sur l’engagement des employés, l’expérience des clients et l’efficacité opérationnelle, afin de saisir toute la valeur créée par l’IA.
  • Faites de la gouvernance une exigence : L’intégration d’une gouvernance interfonctionnelle dans le développement de l’IA est essentielle pour garantir une utilisation éthique, protéger les données et maintenir la confiance, en particulier dans les secteurs réglementés ou très sensibles.
  • Utilisez l’IA pour amplifier les compétences humaines : Permettez aux employés de créer et de posséder des outils d’IA qui augmentent leur expertise en matière de flux de travail ; cela permet d’accélérer l’adoption, de préserver la responsabilité et d’augmenter la capacité globale de l’équipe.

Alexander Procter

novembre 21, 2025

12 Min