La lourdeur de l’interface utilisateur et de l’interface utilisateur de l’IA d’entreprise est à l’origine de l’adoption de l’IA dans l’ombre.

Les outils d’IA d’entreprise ne fonctionnent pas comme prévu. C’est un problème. Les employés sont habitués à des interfaces intuitives, rapides et centrées sur l’utilisateur comme ChatGPT, des outils qui n’ont pas besoin de manuels d’instruction. Lorsque vos systèmes d’IA internes semblent plus lents, plus complexes ou tout simplement plus difficiles à utiliser, l’adoption chute. Et lorsque les gens trouvent que leurs outils les ralentissent, ils deviennent créatifs. Ils se tournent vers des outils qui échappent à votre contrôle.

Si votre équipe n’est pas naturellement attirée par l’IA d’entreprise, elle trouvera des solutions adaptées à son mode de travail. C’est ce qui motive l l’IA de l’ombre. Il ne s’agit pas pour les employés d’enfreindre les règles, mais de rester productifs. Le problème ne réside pas dans la technologie elle-même, les algorithmes fonctionnent, mais dans la manière dont elle est présentée aux utilisateurs. Lorsqu’il y a des frictions dans l’interface, cela a un impact direct sur les performances et les risques.

Les équipes de conception des entreprises appliquent encore des schémas d’interface utilisateur conçus pour des outils dépassés, des ERP, des CRM, des tableaux de bord internes. Ils sont simples, mais pas de manière moderne ou utile. Cette logique de conception est incompatible avec l’IA, où l’accès intuitif et le retour d’information rapide sont plus importants. Les personnes qui utilisent l’IA ne veulent pas de frictions. Ils veulent des résultats.

Ce que cela signifie pour les dirigeants est simple, mais essentiel : si les outils d’IA de l’entreprise ne génèrent pas une productivité mesurable, arrêtez de blâmer la technologie. Examinez l’expérience. Corrigez la conception. Vos systèmes d’IA devraient attirer les employés, et non les pousser à contourner des solutions que vous ne pouvez pas gérer ou sécuriser.

Selon le rapport 2025 Digital Employee Experience Report d’Ivanti, 92 % des entreprises augmentent leurs dépenses en matière d’IA, mais seulement 21 % des employés affirment que ces outils améliorent réellement leur productivité. C’est une déconnexion de 71 %. Vous pouvez investir autant que vous voulez dans des moteurs d’IA, mais si l’interface n’est pas adaptée, votre retour sur investissement en pâtira.

Vineet Arora, directeur technique de WinWire, l’a clairement exprimé lorsqu’il a déclaré que le paradoxe de l’IA d’entreprise est de dépenser sans en tirer profit. Il a ajouté : « Il ne s’agit pas d’algorithmes, mais de facilité d’utilisation ». Il a raison. Si les outils n’offrent pas la même facilité d’utilisation que des outils comme ChatGPT, les utilisateurs les ignorent. Et s’ils les ignorent, la productivité et la sécurité y perdent.

L’IA fantôme comme réponse à l’escalade des exigences professionnelles

Les employés ne font pas exprès de créer des risques. Ils veulent respecter les délais, résoudre des problèmes difficiles et agir rapidement. Mais lorsque les systèmes internes ne peuvent pas suivre, lorsque les processus sont lents ou maladroits, ils ne s’arrêtent pas et n’attendent pas. Ils trouveront quelque chose qui fonctionne. C’est là que l’IA fantôme entre en jeu.

Les cabinets de conseil, les institutions financières et les équipes de marketing sont déjà confrontés à une complexité accrue et à des délais de plus en plus courts. Le travail ne devient pas plus facile, et les outils d’entreprise n’évoluent souvent pas assez vite pour les aider. Les gens se tournent donc vers des applications d’IA spécialisées, des outils rapides ou des assistants de productivité qui ne font pas partie de la pile approuvée par le service informatique. Ces applications sont plus efficaces pour accomplir le travail. Elles s’adaptent mieux aux flux de travail actuels que les outils d’entreprise qui évoluent lentement.

Ce n’est pas un défi, c’est une réponse. L’IA de l’ombre n’est pas née d’une rébellion. Elle s’est développée parce que les gens avaient besoin de meilleurs outils pour rester pertinents et productifs. Ils n’avaient pas des heures à passer à naviguer dans des formulaires ou des approbations, ils avaient besoin de réponses, d’informations, d’un effet de levier. Et les outils modernes d’IA leur apportent cela rapidement.

Si vous êtes en charge de la performance, n’ignorez pas où les outils d’IA sont utilisés, car la plupart d’entre eux ne passent pas par les canaux officiels. VentureBeat rapporte que des services de conseil entiers intègrent désormais des outils d’IA fictifs dans les processus de livraison aux clients. Nombre de ces applications sont construites sur OpenAI, Perplexity, les API de Google, etc. Elles sont plus rapides, fonctionnent mieux et les utilisateurs leur font davantage confiance qu’à ce qui est officiellement fourni.

Cette tendance ne ralentit pas. D’ici la fin de l’année, nous verrons au moins 115 000 applications d’IA fantômes opérer dans tous les secteurs d’activité, et ce sont les outils mobiles qui se développent le plus rapidement. Vous pouvez soit laisser ce phénomène se produire dans l’obscurité, soit le mettre en lumière.

Vineet Arora l’a dit clairement : « Les employés n’agissent pas de manière malveillante ; ils agissent par frustration ». Il a raison. Si les employés voient de meilleurs outils à l’extérieur de vos murs, ils iront les chercher. La solution ne consiste pas à renforcer le contrôle, mais à faciliter l’accès à des outils fiables à l’intérieur de votre système. Donnez aux employés les performances qu’ils attendent, sans les forcer à prendre des risques.

L’IA fantôme amplifie les risques en matière de sécurité, de conformité et d’exposition des données.

L’IA fantôme n’est pas seulement une solution de contournement, c’est un angle mort. Lorsque les employés utilisent des outils d’IA qui ne sont pas suivis, sanctionnés ou sécurisés, les données de l’entreprise disparaissent avec eux. Beaucoup de ces outils ne sont pas conçus pour assurer la conformité de l’entreprise. Certains ne divulguent même pas la manière dont ils entraînent leurs modèles. Cela signifie que les données que vos équipes introduisent dans des outils d’IA non approuvés pourraient être utilisées pour former des systèmes externes. Vous ne perdez pas seulement en visibilité, vous exposez de la propriété intellectuelle sans le savoir.

Les équipes chargées de la sécurité gèrent les conséquences. Les équipes juridiques et de conformité doivent faire face aux retombées si les données des clients se retrouvent dans des modèles tiers. Ce scénario peut être évité, mais seulement si vous reconnaissez qu’il se produit maintenant. Pas plus tard. L’exposition des données par l’utilisation non officielle de l’IA au travail est déjà une réalité documentée dans de nombreux secteurs.

Itamar Golan, PDG de Prompt Security (récemment racheté par SentinelOne), a suivi plus de 12 000 applications d’IA émergentes. Selon lui, 40 % d’entre elles sont configurées par défaut pour s’entraîner à partir de n’importe quelle donnée saisie par l’utilisateur. Ce n’est pas sûr. Et cela ne s’arrête pas à des plateformes inhabituelles ou de niche, il s’agit d’applications intégrées à des API d’acteurs majeurs comme OpenAI et Google. Le risque en matière de propriété intellectuelle est réel et généralisé.

Les organisations en ressentent déjà le coût. Selon les données mondiales sur les violations, l’utilisation non autorisée d’outils d’IA entraîne une perte moyenne de 4,63 millions de dollars par violation. C’est 16 % de plus que la moyenne mondiale de 4,44 millions de dollars. Il ne s’agit pas seulement d’un problème théorique, mais aussi d’un problème financier.

M. Golan résume clairement la situation : « Les gens veulent un avantage sans se rendre compte des conséquences à long terme. Ces conséquences comprennent la compromission des données, les violations de la réglementation et l’atteinte à la réputation. Les dirigeants doivent être proactifs. Commencez par identifier où vont vos données, puis faites en sorte que les options d’IA sécurisées et conformes soient meilleures que les autres. Si les options autorisées ne sont pas rapides, simples et efficaces, les employés ne les utiliseront pas. Et une fois que les données quittent vos systèmes, vous ne les récupérez pas.

Des processus de développement d’applications obsolètes et une gouvernance fragmentée alimentent l’IA fantôme.

Le développement de l’IA n’est pas progressif, il est exponentiel. Pourtant, de nombreuses équipes internes continuent de travailler avec des modèles de gouvernance et des cadres UX conçus pour des systèmes plus anciens et plus lents. La plupart des applications d’entreprise actuelles fonctionnent encore comme il y a dix ans. Elles s’appuient sur des processus rigides, des points de contrôle de sécurité et des plans de déploiement conservateurs. Cela ne suffit plus.

L’IA fantôme prospère parce qu’elle contourne tout cela. Les unités opérationnelles déploient des outils en fonction de la vitesse, et non de la politique. Dans de nombreuses entreprises, plusieurs départements ont désormais leurs propres piles d’IA fonctionnant en dehors de tout contrôle centralisé. Disposant d’une autorité budgétaire indépendante, certains départements n’attendent pas les services informatiques. Ils expérimentent, déploient et mettent à l’échelle ce qui fonctionne. Et la plupart du temps, personne ne vérifie.

Le problème n’est pas l’initiative des employés, c’est le manque de gouvernance et de conception qui suit. Les applications d’IA internes sont encore conçues comme des CRM ou des systèmes de billetterie. Cela crée trop de frictions, pas assez de retour d’information et des mises à jour plus lentes. Les employés voient déjà des outils d’IA publics faire plus, plus vite.

La sécurité n’est pas ignorée, elle est contournée. Parce que les processus informatiques traditionnels n’ont pas été conçus pour des outils qui évoluent chaque semaine. Si vous gérez l’IA de la même manière que les bases de données internes ou les systèmes de ressources humaines, vous êtes déjà en retard.

Vineet Arora, directeur technique de WinWire, a vu des unités commerciales entières utiliser des outils SaaS pilotés par l’IA de manière indépendante. Il explique que les entreprises ont désormais affaire à « des dizaines d’applications d’IA peu connues qui traitent les données de l’entreprise sans un seul examen de la conformité ou des risques ».

Il a également souligné que la plupart des outils informatiques actuels n’ont pas la visibilité nécessaire pour détecter ce qui se passe. Selon Arora : « La plupart des outils et des processus de gestion informatique traditionnels manquent de visibilité et de contrôle sur les applications d’IA. » C’est le cœur du problème. Si vous ne pouvez pas le voir, vous ne pouvez pas le gérer, et encore moins le sécuriser.

Il ne s’agit pas de dire non à l’IA. Il s’agit de mettre en place une gouvernance claire qui responsabilise les utilisateurs tout en minimisant les risques. Les organisations intelligentes mettent en place des bureaux centralisés de gouvernance de l’IA qui combinent l’expérience utilisateur et la supervision de la sécurité. Il ne s’agit pas de silos distincts, mais d’une structure unique, avec un contrôle réel de l’accès, de la facilité d’utilisation et de la conformité.

Le rythme des progrès de l’IA ne ralentit pas. Les dirigeants devraient se concentrer sur des systèmes de gouvernance qui s’adaptent rapidement, fournissent une visibilité et offrent de meilleures expériences utilisateur que les outils fantômes. Gardez les talents à l’intérieur des lignes, non pas en bloquant leurs outils, mais en leur donnant la meilleure version de ces outils dans votre environnement.

Les frictions numériques, principal moteur de l’utilisation de l’IA dans l’ombre

Lorsque les outils vous ralentissent, les gens cherchent des outils plus rapides. Il ne s’agit pas seulement d’un commentaire sur la productivité, mais d’une décision que les employés prennent tous les jours. Si un système d’intelligence artificielle interne semble encombrant, s’il est fréquemment perturbé ou s’il nécessite trop d’étapes pour obtenir des résultats, il crée une friction numérique. Au fil du temps, ces frictions s’accumulent. Les employés n’attendent pas que les choses s’améliorent, ils adoptent des outils plus fluides, plus réactifs et mieux adaptés à leur façon de travailler.

C’est ce qui stimule la croissance de l’IA de l’ombre. Il ne s’agit pas seulement de performance, mais aussi d’expérience. Des interfaces médiocres, des retards dus à des mises à jour inutiles et des systèmes conçus sans retour d’information de la part des utilisateurs conduisent les employés à abandonner les applications officielles. Plus un outil est pénible ou lent, plus il y a de chances qu’ils se tournent vers autre chose, quelque chose de plus rapide, souvent non officiel.

Le rapport 2025 Digital Employee Experience Report d’Ivanti indique que les employés subissent en moyenne 3,6 interruptions techniques et 2,7 interruptions liées aux mises à jour de sécurité chaque mois. Cela représente six interruptions mensuelles par personne. Dans une équipe de 2 000 personnes, les frictions numériques peuvent facilement contribuer à une perte de productivité annuelle de 4 millions de dollars. Et cette perte n’apparaît pas clairement sur les feuilles de calcul, elle se traduit par des retards, des faux pas, des travaux en double, des épuisements.

Ce qui a changé sur le lieu de travail, ce ne sont pas seulement les attentes, mais aussi les alternatives. Les outils d’IA à l’extérieur du pare-feu offrent désormais une plus grande facilité d’utilisation et des résultats plus rapides. Les employés comparent chaque expérience interne avec l’expérience qu’ils obtiennent déjà d’outils tels que ChatGPT. Si les outils internes ne sont pas à la hauteur, ils migrent, souvent sans y réfléchir à deux fois.

Ivanti indique également que 27 % des employés ont transféré 73,8 % de leur utilisation de l’IA sur le lieu de travail vers des comptes personnels. Vous ne pouvez pas sécuriser ce que vous ne pouvez pas voir. Et vous ne le verrez pas si l’employé évite vos systèmes parce qu’ils sont trop lents ou trop obsolètes.

L’adoption de l’IA fantôme ne ralentira pas tant que l’expérience que les employés tirent des outils officiels n’est pas égale ou supérieure à ce qui est disponible ailleurs. Cela signifie qu’il faut créer des outils rapides, réactifs et attrayants qui réduisent, et non augmentent, les frictions numériques.

Nécessité d’un suivi complet de l’expérience numérique des employés (DEX)

La plupart des entreprises ne savent toujours pas comment leurs outils fonctionnent réellement pour les utilisateurs. Si vous ne pouvez pas voir où les choses échouent, où les employés sont bloqués ou pourquoi les taux d’adoption sont faibles, vous n’êtes pas seulement aveugle à la perte de productivité. Vous ne voyez pas non plus les premiers signes d’une IA fantôme qui s’installe.

Le suivi de l’expérience numérique des employés (DEX) vous aide à comprendre ces problèmes avant qu’ils ne prennent de l’ampleur. C’est la couche de données qui vous indique si vos systèmes sont utilisés, où les employés sont frustrés et quelles applications sont ignorées ou remplacées. Sans ce type de visibilité, les équipes informatiques restent dans l’expectative.

Selon Ivanti, seulement 67% des entreprises suivent activement les données DEX. Cela signifie qu’un tiers des organisations ne savent pas comment leurs outils internes affectent la productivité, l’engagement ou le risque. En revanche, les entreprises de taille moyenne sont plus performantes que le marché, 81 % d’entre elles déclarant s’impliquer davantage dans le suivi des données DEX. Elles avancent plus vite parce qu’elles mesurent plus tôt.

Il doit s’agir d’une norme de base. Vous ne lanceriez pas un produit sans mesures, vous ne devriez pas déployer des applications d’IA d’entreprise sans visibilité active sur le comportement des utilisateurs. DEX montre comment les utilisateurs interagissent avec le système, où ils cliquent, où ils abandonnent, où ils réussissent. Il fournit un retour d’information factuel, pas des anecdotes.

Ne pas mesurer le DEX, c’est ouvrir la porte à l’IA fantôme. Si la frustration n’est pas suivie, l’adoption faiblit et les employés trouvent d’autres solutions. Et ces alternatives non surveillées ignorent souvent la sécurité, la conformité et la gouvernance des données.

Pour les dirigeants, il ne s’agit pas seulement d’améliorer l’efficacité, mais aussi d’atténuer les risques. Utilisez DEX pour voir ce qui se passe réellement. Puis agissez en conséquence. L’IA fantôme ne commence pas à l’échelle, elle se développe à partir de points de douleur ignorés. Savoir exactement où et pourquoi les employés évitent certains outils vous permet de corriger l’expérience avant de perdre le contrôle des données.

La mise en œuvre d’une stratégie de gouvernance de l’IA robuste et centrée sur l’utilisateur est essentielle

L’IA fantôme se développe là où la gouvernance est fragmentée et où l’expérience est ignorée. Les équipes d’entreprise abordent souvent l’adoption de l’IA avec des cadres traditionnels, en se concentrant uniquement sur les règles et les contrôles de sécurité. Mais cela n’empêche pas l’utilisation d’une IA malveillante. Ce qui fonctionne réellement, c’est la structure associée à la facilité d’utilisation. Lorsque les outils approuvés sont rapides, sécurisés et faciles à utiliser, les employés restent dans les limites.

Une stratégie moderne de gouvernance de l’IA doit faire plus que bloquer les comportements à risque. Elle doit offrir de meilleures voies pour aller de l’avant. Cela signifie qu’il faut auditer les comportements d’utilisation réels, centraliser la gouvernance de l’IA au sein d’une équipe responsable, tenir à jour un catalogue d’outils approuvés, suivre les points de douleur des employés et s’assurer que les mesures de l’expérience utilisateur sont intégrées au niveau du conseil d’administration. Ces mesures comblent le fossé entre ce que veulent les employés et ce que l’informatique peut soutenir en toute confiance.

Si la gouvernance ne suit pas le rythme de ce dont les équipes ont réellement besoin pour obtenir des résultats, vous n’aurez pas de contrôle. Vous aurez des dérives, des départements déployant des outils en dehors des connaissances informatiques, des outils s’entraînant sur des données sensibles, et des systèmes introduisant un risque opérationnel avec chaque action non documentée.

Le rapport 2025 Digital Employee Experience Report d’Ivanti confirme que les entreprises perdent jusqu’à 4 millions de dollars par an en productivité en raison d’une mauvaise interface utilisateur et de l’abandon des applications internes par les employés. L’adoption d’outils malveillants ne diminue pas. En fait, 27 % des employés admettent qu’ils utilisent l’IA dans des environnements non approuvés, migrant plus de 70 % de cette utilisation vers des outils tels que ChatGPT où la gouvernance ne s’applique pas.

Vineet Arora, directeur technique de WinWire, a souligné que « les RSSI et les DSI les plus intelligents avec lesquels je travaille ne rédigent pas de nouveaux classeurs de politiques… Ils construisent des garde-fous qui permettent une expérimentation en toute sécurité tout en offrant des expériences utilisateur qui rivalisent avec les outils d’IA publics ». C’est la clé. Les contrôles de gouvernance qui ralentissent l’innovation ou compliquent l’accès seront ignorés. Les contrôles conçus pour la rapidité, la clarté et la facilité d’utilisation gagneront en popularité.

Sam Evans, RSSI de Clearwater Analytics, a montré ce qui est en jeu. Il a dû répondre aux préoccupations du conseil d’administration concernant l’exposition potentielle des données des clients aux moteurs d’IA. À l’époque, l’entreprise supervisait 8 800 milliards de dollars d’actifs. Son message était simple : une erreur peut ne pas être intentionnelle, mais elle peut tout de même nuire à la confiance, à la réglementation, voire à l’entreprise elle-même.

La gouvernance exécutable n’est pas de la paperasserie. C’est une opération quotidienne. C’est l’accès au monde réel, le retour d’information et la vitesse de réaction. Les dirigeants doivent s’assurer que la stratégie d’IA inclut la facilité d’utilisation comme élément non négociable, au même titre que la sécurité, la protection de la vie privée et les performances de l’entreprise. Si l’outil est difficile à utiliser, il ne sera pas utilisé. S’il est facile à utiliser et sécurisé, il devient la solution par défaut.

L’expérience des salariés comme contrôle stratégique de la sécurité

La plupart des stratégies de sécurité des entreprises se concentrent sur les contrôles, les restrictions, les blocages et la surveillance. Ces éléments sont nécessaires. Mais ils ne fonctionnent pas seuls, surtout lorsqu’il s’agit d’IA. L’IA fantôme ne se développe pas parce que la sécurité est laxiste. Elle se développe parce que les employés contournent ce qui les ralentit. La meilleure façon de sécuriser l’IA est de rendre les outils officiels productifs et utilisables.

Lorsque les équipes disposent par défaut d’outils rapides, intuitifs et sécurisés, elles n’ont pas besoin de trouver des alternatives externes. L’expérience efficace des employés devient un atout en matière de sécurité, et non une réflexion après coup. Le blocage des outils ou l’interdiction totale de l’utilisation de l’IA ne fait que repousser l’activité dans la clandestinité. Cela supprime la visibilité et augmente les risques.

Les RSSI et les DSI sont aujourd’hui confrontés à ce point faible. Une mauvaise interface utilisateur ne fait pas que coûter de la productivité, elle affaiblit la conformité. Et une fois que les outils ne sont plus utilisés, votre capacité à protéger la propriété intellectuelle s’affaiblit rapidement. Pour prendre de l’avance, il ne suffit pas de sécuriser les logiciels. Vous devez investir dans une expérience qui maintient l’utilisation à l’intérieur des limites.

Vineet Arora a bien comblé cette lacune : « Chaque entreprise devrait traiter la conception de l’interface utilisateur et de l’interface utilisateur comme un contrôle de sécurité ». Cette affirmation n’est pas une question de culture, mais de performance. Les systèmes sécurisés sont des systèmes utilisés. Et les systèmes que les gens préfèrent éviter comportent des risques.

L’IA évolue rapidement. Il en va de même pour les attentes des employés. Les stratégies de sécurité doivent suivre. Cela signifie qu’il faut donner aux équipes les outils dont elles ont besoin, avec une expérience qui encourage le bon comportement, et non qui les bloque dans un comportement de contournement. Lorsque l’expérience est bonne, l’IA fantôme ne disparaît pas seulement, elle ne commence jamais.

En conclusion

L’IA fantôme n’est pas un problème d’utilisateur. C’est un signal de leadership. Lorsque les employés construisent ou adoptent des outils en dehors du système, ils n’enfreignent pas les règles, ils vous disent ce qui ne fonctionne pas. Ils recherchent la rapidité, la facilité d’utilisation et la pertinence. Si vos outils d’IA internes ne sont pas compétitifs sur ces fronts, vous êtes déjà en retard.

Le choix est clair. Vous pouvez considérer l’IA fantôme comme un risque à éliminer ou comme une preuve de ce dont votre personnel a réellement besoin. Il est plus judicieux de combler le déficit d’expérience. Créez des outils que les gens veulent utiliser. Suivez la façon dont ils interagissent. Gouvernez avec flexibilité, pas avec friction.

La sécurité commence par l’expérience. La productivité dépend de l’accès. Les employés ne cesseront pas d’utiliser les technologies qui les aident à aller plus vite, mais ils se tourneront vers celles qui donnent de vrais résultats. Si cela se passe en dehors de votre système, vous ne perdez pas seulement le contrôle, mais aussi la visibilité, les performances et la confiance.

Les leaders qui comprennent cela construisent des systèmes sécurisés, rapides et intuitifs dès leur conception. Ils alignent la gouvernance sur le comportement en temps réel et se concentrent sur la fourniture d’outils qui surpassent les alternatives malveillantes.

C’est ainsi que l’on arrête l’IA fantôme, en faisant des outils officiels la meilleure option.

Alexander Procter

novembre 11, 2025

21 Min