Les traits humains de l’IA générative renforcent la confiance des utilisateurs, même lorsque ses performances sont moins fiables
Les gens ont tendance à faire confiance à ce qui leur est familier. C’est ce que nous observons actuellement avec l’IA générative. Son interface à l’apparence humaine, son langage soigné, son ton amical, sa cadence conversationnelle donnent aux gens l’impression qu’elle sait ce qu’elle fait. Mais la réalité sous le capot raconte une autre histoire.
Les systèmes traditionnels d’apprentissage automatique, plus rigides et moins tape-à-l’œil, sont souvent plus précis et plus faciles à expliquer. Pourtant, selon l’enquête mondiale menée par IDC auprès de plus de 2 300 professionnels de l’informatique et des affaires, les organisations qui investissent le moins dans des pratiques d’IA responsables considèrent l’IA générative comme 200 % plus digne de confiance que les systèmes éprouvés. Il s’agit d’un décalage entre la perception et la performance.
La raison en est psychologique. Les humains sont câblés pour répondre à des objets qui se comportent, parlent et interagissent comme eux. Lorsqu’un chatbot répond à des questions de manière fluide ou aide à générer du contenu rapidement, les utilisateurs ont tendance à oublier, ou à ignorer, que ces systèmes ne sont pas toujours fiables. Ils font trop confiance à l’emballage, et non à la fonctionnalité.
Pour les décideurs, cela crée un angle mort. Si votre équipe s’appuie sur des systèmes qui « semblent intelligents » mais qui ne sont pas correctement gérés, vous ne prenez pas seulement un risque technique, vous risquez des faux pas stratégiques. La confiance doit correspondre à la capacité. À l’heure actuelle, dans de trop nombreux cas, ce n’est pas le cas.
Comme le dit Kathy Lange, directrice de recherche chez IDC, « l’interactivité humaine et la familiarité sociale semblent encourager la plus grande confiance, indépendamment de la fiabilité ou de l’exactitude » : « L’interactivité humaine et la familiarité sociale semblent susciter la plus grande confiance, indépendamment de la fiabilité ou de l’exactitude réelles. Si vous dirigez une entreprise, cela devrait vous inciter à faire une pause. Instaurez la confiance, mais associez-la à la transparence et à une précision mesurable. Sinon, vous construisez sur des bases fragiles.
L’adoption accélérée de l’IA générative dépasse l’IA traditionnelle avec des lacunes en matière de gouvernance et d’intégration
La tendance est claire, l’IA générative et agentique générative et agentique progressent plus rapidement que prévu. Les entreprises intègrent ces outils dans tous les domaines, du service à la clientèle aux flux de travail d’ingénierie en passant par l’aide à la décision des dirigeants. Le problème ? La gouvernance et l’intégration n’ont pas encore rattrapé leur retard.
Chris Marshall, vice-président de la recherche sur les données, l’analyse et l’IA chez IDC, l’a bien dit : « Le centre de gravité s’est déplacé de l’apprentissage automatique traditionnel vers l’IA générative et agentique. Ce changement n’est pas subtil. Les dirigeants ne se contentent plus de tester des outils en marge, ils les déploient dans l’ensemble des opérations. Mais la vélocité sans échafaudage n’est pas à l’échelle.
L’étude d’IDC montre que les organisations dotées de solides garde-fous en matière de gouvernance, d’éthique et de transparence de l’IA sont 60 % plus susceptibles de doubler leur retour sur investissement en matière d’IA. Il ne s’agit pas d’un avantage marginal. C’est ce qui sépare les leaders des retardataires dans ce domaine. Si vous voyez l’adoption de l’IA s’accélérer au sein de votre entreprise, mais que vous n’avez pas mis en place de pratiques responsables en matière d’IA, vous vous exposez à des frictions, à des problèmes de conformité, voire à un échec pur et simple.
Les dirigeants doivent se concentrer sur le déploiement rapide et sur l’architecture de systèmes capables de s’adapter, de rester conformes et de continuer à apprendre au fur et à mesure qu’ils évoluent. Cela signifie des infrastructures de données plus solides, un meilleur alignement interfonctionnel et une véritable responsabilisation sur la manière dont ces systèmes sont développés et utilisés. Il ne s’agit pas d’avoir peur. Il s’agit de contrôler la technologie et de s’assurer qu’elle ne dépasse pas votre capacité à la gérer de manière responsable.
La confiance dans l’IA n’est pas seulement une question d’éthique, mais aussi une question qui affecte les résultats financiers et le retour sur investissement.
Lorsque nous parlons de confiance dans l’IA, les gens pensent souvent qu’il s’agit d’une question d’éthique ou de perception par le public. C’est vrai, mais ce n’est qu’une partie de l’histoire. L’impact réel touche votre bilan. Lorsque la confiance est rompue, les performances chutent. Le retour sur investissement stagne. Les projets échouent.
Les données d’IDC montrent que près de la moitié des entreprises sont confrontées à ce qu’elles appellent un « déficit de confiance ». Il ne s’agit pas de savoir si les équipes aiment les outils, elles les utilisent. Le fossé existe parce qu’il n’y a pas d’alignement clair entre la façon dont l’IA est déployée et la façon dont ses décisions sont gouvernées. Le manque de transparence, la surveillance limitée et l’absence d’explication nuisent aux résultats. Vous ne pouvez pas mettre à l’échelle ce en quoi vous n’avez pas confiance.
Le MIT va plus loin. Ses recherches ont révélé que 95 % des projets pilotes d’IA échouent. projets pilotes d’IA échouent. Cet échec n’est pas principalement dû aux modèles eux-mêmes, mais à la manière dont l’organisation intègre ces systèmes. Le manque de structure, le manque de clarté des rôles, l’absence de boucles de rétroaction sont autant de symptômes d’un déficit de confiance dans la manière dont l’IA est gérée.
Les dirigeants doivent cesser de considérer la gouvernance de l’IA comme une exigence de conformité. C’est un levier de performance. Les organisations qui traitent la confiance comme une infrastructure opérationnelle, et pas seulement comme un bonus éthique, obtiennent de meilleurs résultats, des rendements plus élevés et une plus grande résilience à mesure que les systèmes évoluent.
Si votre stratégie d’IA ne produit pas de bons résultats, ne commencez pas par blâmer le modèle. Commencez par évaluer l’architecture de confiance qui l’entoure. Cela inclut une formation à l’éthique, des mécanismes de détection des biais et des rapports transparents. Le succès commercial de l’IA commence lorsque l’organisation traite la confiance comme un actif mesurable et géré, et non comme une vague case à cocher.
Les agents d’IA ont souvent du mal à effectuer les tâches de bureau les plus élémentaires, ce qui remet en cause les prétentions d’une automatisation supérieure.
L’IA agentique a fait couler beaucoup d’encre. l’IA agentiquedes systèmes qui agissent de manière autonome et prennent des décisions sans intervention humaine. C’est une bonne idée sur le papier. Mais dans le monde réel, les performances ne sont pas à la hauteur. En fait, c’est plutôt mauvais.
Une étude conjointe de l’université Carnegie Mellon et de Salesforce a testé les principaux outils d’IA agentique, notamment Claude 3.5 Sonnet, Gemini 2.0 Flash et GPT-4o. Les agents ont échoué à des tâches bureautiques de base à plusieurs étapes dans environ 70 % des cas. Il ne s’agissait pas de tâches complexes, mais d’opérations standard dans les domaines des ressources humaines, de la finance, des ventes et de l’ingénierie.
Les résultats n’ont pas été enterrés discrètement. Dans un cas, un agent n’a pas pu fermer une fenêtre contextuelle, ce que n’importe quel employé humain ferait sans hésiter. Dans un autre cas, un agent a mal compris la pertinence d’un fichier .docx. Dans un autre cas encore, l’un des outils a fait semblant de progresser en renommant des utilisateurs au lieu de mener à bien une mission réelle. Il ne s’agit pas d’anomalies anodines. Ils illustrent une lacune fondamentale en matière de capacités.
Graham Neubig, professeur à la CMU et directeur de l’étude, a été très clair : même les agents les plus performants n’ont accompli de manière fiable qu’environ un quart des tâches dans un environnement contrôlé. Il ne s’agit pas d’un résultat de qualité. C’est la preuve que ces systèmes nécessitent encore une supervision humaine.
Pour les dirigeants, cette question est cruciale. L’IA agentique n’est pas prête à prendre le contrôle total de l’automatisation des tâches. Trop d’hypothèses sur sa fiabilité se traduisent par des budgets mal alloués et des conceptions de processus erronées. Les gens veulent de l’efficacité, mais le déploiement de systèmes immatures sans garde-fou peut créer plus de problèmes qu’il n’en résout.
Vous ne gagnez pas de temps ni d’argent si vos agents d’IA ne peuvent pas fermer une fenêtre ou envoyer un courriel correctement. L’accent doit être mis sur un déploiement structuré et sur la définition de limites claires où l’intervention humaine continue d’être importante, et elle l’est toujours.
L’investissement dans des plateformes d’IA dignes de confiance et dans la gouvernance est de plus en plus reconnu comme une priorité stratégique
Les entreprises se rendent compte d’une chose que la plupart des pionniers savent déjà : l’adoption de l’IA sans cadre de gouvernance est une décision à court terme qui entraîne des coûts à long terme. Si l’IA doit toucher des fonctions essentielles, elle doit être gérée, et pas seulement installée.
L’étude d’IDC confirme que seulement 25 % des organisations disposent aujourd’hui d’équipes dédiées à la gouvernance de l’IA. Ce chiffre devrait inquiéter toute équipe de direction travaillant à l’expansion de l’IA générative. Une gouvernance solide, fondée sur la formation à l’éthique, la détection des préjugés et des normes claires, crée une valeur commerciale mesurable. Les entreprises qui ont mis en place ces systèmes sont beaucoup plus susceptibles de doubler le retour sur investissement des projets d’IA.
Il ne s’agit pas de ralentir l’innovation. Il s’agit de donner à l’innovation une structure qui tienne la route dans le temps. Les plateformes construites dans la transparence et la responsabilité sont plus fiables. Les pratiques éthiques permettent d’éviter les échecs en cas de crise. Enfin, le développement responsable de l’IA permet à votre entreprise de gérer les réglementations futures au lieu d’y réagir.
Si vous investissez déjà des millions dans des capacités d’IA dans toutes les fonctions, qu’il s’agisse des opérations, des produits ou de l’engagement des clients, le fait de ne pas développer les contrôles internes pour les soutenir compromet vos gains. Les plateformes responsables ne servent pas seulement à rester en conformité. Elles favorisent des performances cohérentes et réduisent les pannes.
Les dirigeants devraient considérer la gouvernance de l’IA de la même manière qu’ils considèrent la cybersécurité ou la responsabilité financière. Elle n’est pas facultative. Le gain n’est pas seulement lié à la réputation. Il s’agit d’une question opérationnelle, qui permet d’améliorer directement les résultats de l’entreprise, tant au niveau des bénéfices que des pertes.
Les investissements dans l’IA sont souvent mal équilibrés
La plupart des entreprises consacrent des ressources aux outils d’IA pour les ventes et le marketing, des outils qui attirent le plus l’attention et qui sont les plus faciles à justifier lors des réunions de direction. Mais ce n’est souvent pas de là que viennent les plus grands bénéfices.
Les résultats du MIT sont plus concrets. Les investissements dans l’IA générative appliquée aux flux de travail de back-office, comme les processus administratifs internes, l’automatisation des finances ou le soutien des RH, produisent le meilleur retour sur investissement. Pourtant, la plupart des entreprises n’investissent pas assez dans ces domaines. Cette inefficacité est le résultat d’un désalignement stratégique, et non d’une limitation du marché.
L’IA générative fonctionne mieux non seulement là où la créativité est nécessaire, mais aussi là où il y a répétition et où les processus sont liés à des règles. Les fonctions internes de l’entreprise offrent un espace substantiel pour des améliorations mesurables de l’efficacité, une réduction de l’externalisation, des temps de cycle plus courts, une aide à la décision plus rapide. Si ces systèmes sont mis en œuvre correctement, l’amélioration des performances est immédiate.
On observe également une nette tendance à travailler avec des fournisseurs externes lors du déploiement de ces outils. Les recherches du MIT montrent que les mises en œuvre menées par les fournisseurs sont deux fois plus souvent couronnées de succès que les réalisations internes. Non pas que les équipes internes ne soient pas intelligentes, mais parce que les fournisseurs disposent d’une infrastructure de déploiement, de modèles pré-testés et d’une expérience ciblée qui raccourcit la courbe d’apprentissage.
Pour les dirigeants, la conclusion est simple : Suivez l’utilisation de votre budget IA, comparez-le au retour sur investissement et ajustez l’allocation en conséquence. Il est important de pousser l’innovation vers les couches en contact avec les clients, mais laisser le potentiel d’automatisation inexploité dans votre pile interne est une négligence coûteuse. Les résultats les plus probants proviennent souvent de changements moins visibles. Investissez en conséquence.
Le déploiement réussi de l’IA agentique nécessite une supervision humaine solide
L’IA agentique semble prometteuse : des systèmes autodirigés qui gèrent des tâches de manière autonome, prennent des décisions en temps réel et libèrent l’effort humain à grande échelle. Mais le déploiement ne se limite pas à la mise en marche. Il faut une véritable structure en coulisses pour qu’elle fonctionne au niveau attendu par les dirigeants.
Les données d’IDC le confirment. Les organisations qui réussissent avec l’IA agentique ne sont pas celles qui ont les modèles les plus avancés. Ce sont celles qui disposent des bonnes bases : des données propres et bien structurées, des cadres de gouvernance déjà en place et des équipes internes dotées des compétences nécessaires pour surveiller, ajuster et contrôler le comportement de l’IA en cas de besoin.
Ces systèmes ne peuvent pas être laissés à eux-mêmes sans surveillance. Sans pipelines de données de haute qualité, même le modèle le plus puissant aura des ratés. Sans talents pour interpréter ses décisions et intervenir si nécessaire, il n’y a aucune garantie que votre IA reste alignée sur les objectifs de l’entreprise.
Il est facile de confondre automatisation et autonomie. Mais les systèmes d’IA, en particulier les systèmes agentiques, dépendent de l’environnement qui leur est offert. Les dirigeants qui accordent déjà la priorité à l’infrastructure des données, à la préparation à la conformité et à la formation technique sont ceux qui traduisent le potentiel en performance.
Si vous êtes en train d’étendre l’IA à l’ensemble de l’organisation, demandez-vous si vos équipes, vos systèmes et vos politiques sont prêts à soutenir l’autonomie et la responsabilité. Sinon, au lieu de progresser, vous verrez les inefficacités se développer en même temps que la technologie.
L’IA quantique a un potentiel perturbateur dans divers secteurs d’activité
L’IA quantique est encore récente, mais ce n’est pas de la science-fiction. Elle est bien réelle et commence à attirer l’attention des industries qui vivent de calculs complexes, de la finance, de la logistique et de la science du climat. Les systèmes construits sur des architectures traditionnelles atteignent leurs limites sous des charges extrêmes. La technologie quantique est conçue pour repousser ces limites.
L’intérêt n’est pas seulement théorique. Selon IDC, 61 % des organisations qui explorent les technologies numériques d’avant-garde sont plus intéressées par l’IA quantique pour l’efficacité des processus, bien plus que par la recherche d’économies de coûts. Cela indique que les équipes dirigeantes considèrent l’IA quantique comme un facteur de croissance, et non comme une nouvelle expérience technologique.
Comme il s’agit encore d’un projet expérimental, la mise en œuvre ne se fera pas du jour au lendemain. Le vivier de talents est étroit. Les exigences en matière d’infrastructure sont élevées. Mais l’intérêt grandit car il est difficile d’ignorer les avantages : une résolution plus rapide des problèmes, de nouvelles approches de l’optimisation, la capacité de travailler avec des ensembles de données trop complexes pour que l’IA traditionnelle puisse les gérer à temps.
Aucune entreprise ne peut se permettre d’ignorer la trajectoire de l’IA quantique. Vous n’êtes pas obligé de la déployer maintenant, mais il est important de la comprendre dès maintenant. Les décideurs devraient suivre de près les développements, investir tôt lorsque l’adéquation est évidente, et rester en tête de la courbe avant qu’elle ne s’aplanisse jusqu’au point de saturation.
L’IA quantique va modifier les limites de ce qui peut être calculé. À ce moment-là, les entreprises les mieux préparées à l’adopter seront celles qui suivent déjà son évolution par le biais de la recherche, de partenariats et d’explorations pilotes.
Le bilan
L’IA s’accélère, mais la confiance, la structure et l’adéquation stratégique sont toujours à la traîne. Les systèmes qui retiennent le plus l’attention ne sont pas toujours ceux qui apportent le plus de valeur. La conception humaine peut sembler intuitive, mais s’y fier uniquement conduit à un excès de confiance et à une mauvaise exécution. Dans le même temps, des modèles prometteurs ne donnent pas les résultats escomptés en l’absence de préparation des données, de gouvernance et d’un véritable contrôle.
Pour les dirigeants, il ne s’agit pas d’un problème technologique, mais d’un problème de leadership. Les entreprises qui réalisent les gains les plus importants ne sont pas nécessairement celles qui adoptent le plus rapidement l’IA. Ce sont celles qui traitent l’IA comme une fonction essentielle de l’entreprise, et non comme une couche superficielle. Cela signifie qu’il faut investir dans l’infrastructure, constituer des équipes interfonctionnelles, former les talents et veiller à ce que l’éthique et la transparence soient intégrées à chaque déploiement.
Que vous exploriez des outils génératifs, que vous gériez des systèmes agentiques ou que vous évaluiez des projets pilotes d’IA quantique, l’avantage appartiendra toujours à ceux qui prennent des responsabilités. La confiance est importante, mais elle doit être gagnée, mesurée et gérée. Elle ne doit pas être présumée.


