L’IA générative est entrée dans le creux de la désillusion

L’IA générative n’est pas magique. Elle a du potentiel, certes, mais elle se trouve actuellement dans une phase où les attentes ne correspondent plus aux résultats. Gartner l’appelle le « creux de la désillusion », et il a raison. De nombreuses entreprises se sont précipitées. Elles s’attendaient à des systèmes clés en main capables de générer de la valeur avec un minimum d’efforts. Cela n’a pas été le cas.

Auparavant, vous avez entendu des phrases telles que « il suffit d’introduire vos données et cela fonctionnera à merveille ». En réalité, l’utilisation efficace de l’IA générique demande beaucoup plus de réflexion. Sans de solides contrôles de performance, ces systèmes ne peuvent pas être mis à l’échelle d’une entreprise de manière significative ou fiable.

Les entreprises se rendent compte que le déploiement d’outils d’IA générative dans les flux de travail opérationnels sans tests, sans ajustement du contexte et sans soutien de l’infrastructure conduit à de mauvais résultats. Et les mauvais résultats érodent rapidement le soutien interne. Une sorte de lassitude à l’égard de l’IA est en train de s’installer, non pas par manque d’intérêt, mais en raison d’attentes non satisfaites. Les projets pilotes à gain rapide n’ont pas donné les résultats escomptés. Les équipes dirigeantes qui ont soutenu la technologie très tôt se voient maintenant poser des questions difficiles sur l’impact et le retour sur investissement.

Cela ne signifie pas que la technologie a échoué. Loin de là. Les capacités sont là. Mais beaucoup ont simplement mal évalué le travail nécessaire pour en tirer une valeur commerciale. Vous avez besoin d’une architecture. De gouvernance. De véritables repères de performance. Vous n’obtiendrez pas d’échelle à partir d’une version de démonstration.

La position actuelle de Gartner ? Il s’attend à ce que l’IA générative sorte de cette phase de désillusion d’ici deux à cinq ans. C’est un délai raisonnable. Mais le fait que votre entreprise obtienne de la valeur maintenant ou qu’elle attende dépend de la manière dont vous déployez la technologie.

Birgi Tamersoy, directeur principal de l’analyse chez Gartner, l’a dit simplement : le cycle du battage médiatique ne reflétait pas la réalité sous-jacente. Pour réussir, il faut un déploiement structuré et un investissement sérieux dans la fiabilité et la performance. C’est toujours le cas avec les technologies de transformation.

Les problèmes de fiabilité et les résultats imprévisibles nuisent à l’adoption de ces produits.

Autre problème que nous ne pouvons ignorer, les utilisateurs n’ont pas confiance dans ce qu’ils obtiennent des systèmes d’intelligence artificielle. Les résultats vont de l’impressionnant à l’inutile, avec peu de cohérence. Lorsqu’un outil n’est pas en mesure de fournir deux fois la même qualité, il est rapidement retiré des environnements de production.

Ce problème est mieux connu sous le nom d' »hallucination ». Ces modèles génèrent des réponses basées sur des probabilités et non sur des vérités. Ils se trompent donc en toute confiance. C’est très bien si vous êtes en train de réfléchir à des idées. Ce n’est pas le cas si vous automatisez l’assistance à la clientèle ou l’analyse financière.

Les dirigeants le constatent de visu. Vous testez le système une fois, il semble bon. Vous l’exécutez à nouveau sous pression, il se casse. Cette imprévisibilité freine l’adoption. Les équipes deviennent hésitantes. La confiance diminue.

Dmitry Mishunin, PDG de Doitong, l’a bien résumé : « L’IA générative est désormais un jeu de boîte mystère. Vous pouvez obtenir un chef-d’œuvre ou quelque chose d’inutilisable ». C’est une réalité. Et cela coûte du temps et du budget d’expérimentation.

Il s’agit d’un signal d’alarme pour tous ceux qui s’attendent à ce que des systèmes autonomes prennent en charge des processus clés. Si les modèles de base ne sont pas stables, leurs formes basées sur des agents, des systèmes automatiques fonctionnant de manière autonome, ne seront pas fiables non plus. Le déploiement par simple pression d’un bouton n’a pas encore eu lieu. Aujourd’hui, vous avez besoin d’humains dans la boucle.

Pour les équipes de la direction, le message est le suivant : expérimentez, mais n’oubliez pas les pipelines de validation et les modèles de gouvernance. Si vous ne pouvez pas faire confiance à votre système pour obtenir des résultats cohérents et que votre équipe ne comprend pas quand il risque de tomber en panne, alors il n’est pas prêt pour les charges de travail principales. Travaillez en étroite collaboration avec l’ingénierie, faites des tests approfondis, construisez des murs de sécurité, et vous réduirez les risques sans ralentir l’innovation.

Il ne s’agit pas d’un échec, mais d’une itération. Les systèmes s’amélioreront. Mais les décisions que vous prenez aujourd’hui en matière de déploiement déterminent si ces améliorations se traduiront plus tard par une valeur commerciale ou par des coûts irrécupérables.

Les taux d’échec élevés des projets pilotes d’IA soulignent la nécessité d’améliorer la robustesse et l’évolutivité.

De nombreux pilotes d’IA échouent. Ce n’est pas surprenant. La plupart d’entre eux ont été mis en place à la hâte. Ils ne disposaient pas de l’architecture ou des contrôles nécessaires pour fonctionner dans un environnement commercial réel. Lorsqu’un système d’IA génératif peut halluciner à tout moment, le faire fonctionner sans garde-fou devient une responsabilité.

Ce qui manque le plus, c’est la robustesse. Vous pouvez former un modèle décent. Vous pouvez déployer une démonstration de faisabilité. Mais lorsque les données du monde réel arrivent et que le volume augmente, les systèmes s’effondrent. C’est ce que nous constatons aujourd’hui. Le passage du prototype à la production est plus important que prévu.

L’IA d’entreprise n’a pas seulement besoin de bons résultats. Elle a besoin de résultats reproductibles et fiables. Elle a besoin de systèmes environnants, d’une surveillance, d’une logique de repli, d’interfaces humaines dans la boucle, de contrôles linguistiques et d’un réglage des performances reproductible à l’échelle. Sans ces éléments, votre pilote s’effondre dès qu’une ambiguïté apparaît dans les données d’entrée.

Birgi Tamersoy, de Gartner, a clairement formulé ce point. Selon lui, « ce que vous mettez autour [de l’IA] pour augmenter sa robustesse et sa fiabilité fait une énorme différence en termes de succès ». Des modèles simples ne suffiront pas à gérer des processus à haut risque. Vous avez besoin de couches de contrôle et de tests rigoureux avant de procéder à un déploiement complet.

Les dirigeants ne doivent pas considérer les échecs des pilotes comme des revers techniques, mais comme des signaux stratégiques. Si votre pilote échoue et que vous ne comprenez pas pourquoi, il ne s’agit pas d’une limitation de l’IA. Il s’agit d’une défaillance du processus. Établissez des indicateurs de performance clés clairs. Surveillez les cas extrêmes. Concevez des critères de sortie en cas de baisse de la qualité. Cela permet de clarifier les choses et de minimiser les risques. Si le système ne fonctionne pas lors des tests, il n’est pas prêt pour la logique commerciale. Le traiter comme tel protège l’entreprise, le budget et la confiance des clients.

C’est à ce stade que la pression et l’échelle révèlent les faiblesses. La leçon à en tirer ? Une infrastructure faible ne stabilisera pas une idée géniale.

L’augmentation des coûts de l’énergie et des coûts informatiques pose des problèmes de retour sur investissement aux entreprises.

L’IA générative n’est pas bon marché. Cela devient de plus en plus évident au fur et à mesure que les entreprises dépassent le stade de l’expérimentation et tentent d’être opérationnelles à grande échelle. La formation de grands modèles de langage, l’exécution d’inférences sur des requêtes complexes et le traitement de gros volumes d’entrées nécessitent une réelle puissance de calcul. Et cette puissance n’est pas gratuite.

Certaines entreprises voient aujourd’hui leurs factures d’énergie se chiffrer en millions, simplement pour faire fonctionner les systèmes d’intelligence artificielle. Ces coûts s’accumulent rapidement, en particulier dans les secteurs où les marges sont étroites ou le volume de transactions élevé. D’où la question centrale : le bénéfice en vaut-il le coût ?

La réponse dépend entièrement de l’utilisation que vous faites de la technologie. Si le système augmente la productivité, améliore la précision des résultats, accélère les flux de travail ou débloque de nouveaux modèles commerciaux, alors oui, des coûts énergétiques élevés peuvent être justifiés. Mais si votre déploiement se limite à un seul service ou si les taux d’hallucination restent élevés, chaque watt commence à peser sur le retour sur investissement.

Il s’agit d’une question d’alignement stratégique. Déployer l’IA générique sans calculer au préalable le coût total de possessiony compris le calcul, le stockage, le recyclage et l’intégration, est un manque de vision. La complexité élevée des modèles, lorsqu’elle s’accompagne d’une valeur ajoutée minimale, conduit directement à des rendements négatifs.

Birgi Tamersoy, de Gartner, l’a souligné explicitement : les coûts énergétiques peuvent atteindre des millions, et les dirigeants doivent déterminer si les avantages justifient cette charge. Les modèles génératifs d’aujourd’hui continuent d’évoluer et l’optimisation est en cours, mais les coûts actuels ne disparaissent pas pour autant.

Pour les décideurs, le moment est venu de passer de l’enthousiasme à l’économie. Chaque fraction de seconde de latence du modèle a un coût environnemental et financier. Utilisez des architectures tenant compte des coûts. Donnez la priorité à l’efficacité des modèles. Sélectionnez des fournisseurs qui font preuve de transparence énergétique. Et assurez-vous que chaque voie de déploiement est liée à une valeur commerciale mesurable. Si ce n’est pas le cas, les coûts augmenteront plus vite que les bénéfices.

Les modèles de tarification basés sur l’utilisation freinent l’innovation expérimentale dans le domaine de l’IA générique

L’un des principaux obstacles à l’expérimentation de l’IA générative est la tarification. De nombreuses plateformes facturent les résultats obtenus. Cette approche récompense l’efficacité, mais elle limite considérablement le type de tests ouverts nécessaires pour améliorer un système au fil du temps.

À l’heure actuelle, les résultats de l’IA générique sont incohérents. C’est un fait largement reconnu. Pour y remédier, il faut procéder par essais et erreurs. Vous avez besoin de conditions de test qui ne pénalisent pas l’itération. Au lieu de cela, de nombreux modèles de tarification découragent aujourd’hui l’expérimentation intensive, car vous payez pour chaque résultat utilisable, même si des dizaines d’essais antérieurs ont échoué.

Le coût n’affecte pas seulement votre budget. Il a également un impact sur la culture. Les équipes cessent d’essayer des choses. Elles réduisent leur curiosité. La vision du produit finit par se restreindre. Au lieu de découvrir de nouveaux cas d’utilisation, vous vous contentez de maintenir ce que vous avez déjà. Les progrès ralentissent.

Dmitry Mishunin, PDG de Doitong, a soulevé directement cette question. Il pense que lorsque les services commenceront à ne facturer que les résultats finaux et autoriseront la générosité dans l’expérimentation, le rythme de croissance de l’industrie s’accélérera. À l’heure actuelle, c’est le contraire qui se produit. Des stratégies de facturation rigides obligent les équipes à limiter leur créativité avant même que le système n’atteigne son échelle.

Les dirigeants doivent évaluer les modèles de tarification des fournisseurs non seulement en termes de coûts d’utilisation purs, mais aussi en termes de ce qu’ils déverrouillent ou restreignent. La possibilité d’effectuer des tests sans contraintes est essentielle. C’est ainsi que vous formerez les équipes internes à faire confiance au modèle, à apprendre des itérations et à construire de meilleurs outils internes. Si chaque expérience est assortie d’une pénalité, moins de personnes expérimenteront.

La méfiance à l’égard des agents d’intelligence artificielle reflète les problèmes plus généraux de fiabilité des systèmes d’intelligence artificielle.

Les agents d’IA, systèmes automatisés qui agissent sur la base de modèles d’IA génératifs, se heurtent à un mur. La raison en est simple : les gens ne leur font pas confiance. Ces agents s’appuient sur de grands modèles linguistiques (LLM) pour prendre des décisions. Et lorsque le modèle linguistique manque de fiabilité, l’agent en fait de même.

Si vous ne pouvez pas faire confiance au cerveau, vous ne pouvez pas faire confiance à l’automatisation. Les entreprises ne l’ignorent pas. En fait, le déploiement est limité. De nombreuses entreprises reconnaissent le risque et attendent de voir des capacités plus fortes et des preuves de stabilité.

Mike Sinoway, PDG de Lucidworks, a fait part d’un constat sévère : le rapport 2025 State of Generative AI de sa société a révélé que seulement 6 % des entreprises de commerce électronique ont partiellement ou totalement déployé un agent d’IA. Plus révélateur encore, deux tiers d’entre elles ne disposent pas de l’infrastructure nécessaire pour prendre en charge les systèmes agentiques. Il ne s’agit pas d’une réticence, mais d’un retard structurel.

La raison n’est pas la peur de l’automatisation, mais la fiabilité de l’IA sous-jacente. L’IA générique a encore des hallucinations, ne gère pas le contexte de manière prévisible et n’accomplit pas toujours les tâches prévues. Ce comportement n’inspire pas confiance. Surtout pas lorsque ces systèmes sont censés agir de manière indépendante dans les flux de travail réels de l’entreprise.

Birgi Tamersoy, de Gartner, a expliqué la situation avec franchise. « Vous ne pouvez pas automatiser quelque chose en quoi vous n’avez pas confiance », a-t-il déclaré. Et c’est vrai. Lorsque les agents d’IA sont alimentés par des modèles qui ne peuvent pas être facilement interprétés, leurs voies de décision deviennent opaques. C’est alors que les dirigeants hésitent.

Pour les dirigeants, cela implique deux actions. Premièrement : n’achetez pas d’agents d’IA tant que vous n’êtes pas certain que les modèles de base qui les soutiennent sont fiables. Deuxièmement : investissez dans l’infrastructure, la gouvernance et les outils d’orchestration qui améliorent la surveillance, la transparence et la gestion des solutions de repli.

L’avenir de l’IA ne réside pas dans un modèle unique qui résoudrait tout à lui seul. Il réside dans une intelligence coordonnée, où les systèmes échangent leurs rôles, partagent la charge de travail et opèrent sous un contrôle plus étroit. La confiance en cette intelligence viendra avec de meilleures interfaces, une meilleure coordination et de meilleurs résultats. En attendant, la confiance, à juste titre, se mérite et ne se présume pas.

L’IA composite offre une voie prometteuse pour surmonter les limites des modèles d’IA autonomes

L’IA générative a ses limites. Pour les tâches textuelles, elle est performante. Mais la précision, le contrôle du contexte et l’alignement sur la logique de l’entreprise restent insuffisants. C’est là qu’intervient l’IA composite. Il ne s’agit pas d’un système unique, mais d’un mélange structuré. En combinant les modèles génératifs avec d’autres méthodes telles que l’apprentissage automatique traditionnel, les systèmes basés sur des règles et la vision par ordinateur, vous obtenez des résultats plus fiables et plus spécifiques à la tâche.

C’est l’approche à privilégier pour une utilisation en entreprise dans le monde réel. Plutôt que de s’appuyer entièrement sur un seul modèle pour comprendre, générer et agir, l’IA composite intègre plusieurs capacités. Ainsi, lorsqu’un système manque de précision ou de confiance, un autre comble cette lacune. Cette coordination réduit le bruit, améliore la précision et favorise les résultats liés aux dépendances réelles de l’entreprise.

Birgi Tamersoy, de Gartner, considère cette stratégie comme essentielle. Il définit l’IA composite comme un mélange de plusieurs approches d’IA utilisées ensemble pour exploiter leurs forces individuelles tout en compensant les faiblesses de chaque modèle. Elle n’élimine pas le risque, mais le calibre.

Les entreprises qui prennent cela au sérieux sont en train de repenser leurs piles d’IA. Elles ne remplacent pas l’IA générative, elles la superposent. La reconnaissance visuelle et les modèles prédictifs côtoient les outils génératifs. Les agents sont contrôlés à l’aide de règles commerciales traditionnelles. Enfin, les technologies d’orchestration se situent entre les deux, alignant les entrées et les sorties sur le flux de travail d’une manière plus intelligente.

Pour les dirigeants, la conclusion est claire : ne cherchez pas un produit d’IA unique pour gérer vos opérations. Construisez votre système par conception, et non par défaut. Donnez la priorité aux cadres qui vous permettent de brancher différents composants d’IA, de tester leur fiabilité et de coordonner leur utilisation. C’est ainsi que vous réduirez les perturbations, augmenterez les résultats valides et obtiendrez de réels gains de performance.

Des cadres complets d’évaluation des modèles sont essentiels pour libérer la valeur commerciale de l’IA générique.

La première vague d’adoption de l’IA générative s’est appuyée sur l’excitation plus que sur la discipline. De nombreux dirigeants ont agi rapidement sans se poser une question centrale : comment évaluer ces modèles avant de les mettre à l’échelle ? Ce manque de diligence raisonnable a directement conduit à des attentes démesurées et à des résultats incohérents.

Sans un cadre, quelque chose qui teste les modèles en termes de précision, de biais, de stabilité et de pertinence pour l’entreprise, vous ne savez pas ce que vous déployez. Et lorsque les choses tournent mal par la suite, la réparation devient plus coûteuse et plus difficile à mettre à l’échelle.

Richard Sonnenblick, Chief Data Scientist chez Planview, l’explique ainsi : « Nous avons surestimé le potentiel de l’IA à court terme parce que nous n’avions pas de grille d’évaluation des modèles. » Il a raison. Les interfaces conversationnelles étaient nouvelles, accessibles, et elles éblouissaient dans les démonstrations. Mais très vite, les équipes se sont rendu compte que les performances sous pression ne correspondaient pas aux cas de test isolés.

Aujourd’hui, le changement est en cours. Les entreprises qui resteront compétitives développeront ou adopteront des protocoles normalisés d’évaluation des modèles. Cela inclut des critères de référence pour la précision des cas d’utilisation, les contrôles du taux d’hallucination, la stabilité des différents flux de travail et l’alignement sur les cadres réglementaires.

Pour les dirigeants, le message est direct : n’attendez pas l’échec pour évaluer la qualité. Intégrez l’évaluation dès le début du prototypage. Faites appel à des auditeurs internes et à des experts du domaine pour définir les seuils que les modèles doivent atteindre avant d’être mis en service. Précisez où et comment vous mesurez les écarts.

Il s’agit de rendre ces progrès durables. Les systèmes qui ne peuvent être mesurés ne sont pas fiables. Les systèmes qui ne sont pas fiables ne sont pas évolutifs. Pour obtenir une valeur réelle, appliquez ici la même discipline d’ingénierie que pour tout système essentiel à l’activité de l’entreprise. C’est ainsi que vous passerez du charme à l’impact.

L’optimisme à long terme pour l’IA générique demeure si des améliorations stratégiques sont apportées

L’IA générative n’est pas terminée. Elle se trouve dans un cycle de correction, et non d’effondrement. Nous assistons actuellement à une phase de calibrage, les modèles sont revus, les méthodes de déploiement deviennent plus intelligentes et les équipes dirigeantes posent de meilleures questions. C’est un progrès.

Le potentiel à long terme de l’IA générique reste important. Avec un meilleur raisonnement des modèles, des ensembles de données d’entraînement, des systèmes d’orchestration solides et des couches de validation plus claires, les gains de productivité et les nouvelles capacités restent tout à fait réalisables. L’impact ne viendra pas du battage médiatique. Il viendra de systèmes bien structurés et d’une exécution fondée sur des mesures, et non sur le marketing.

Mike Sinoway, PDG de Lucidworks, l’a déclaré directement : « Les prochaines percées ne viendront pas d’agents individuels travaillant seuls, mais de systèmes d’orchestration qui acheminent les tâches vers les modèles les plus rentables. Elles viendront des systèmes d’orchestration qui acheminent les tâches vers les modèles les plus rentables. » C’est vers cela que les choses se dirigent. Une coordination intelligente entre les composants, et non une performance isolée de l’un d’entre eux.

Richard Sonnenblick, de Planview, a ajouté un autre point essentiel. Même si seul un petit nombre de projets d’IA générative produit une valeur tangible, disons un sur cent, le rendement cumulé pourrait être suffisamment important pour justifier l’investissement global. La plupart des économies d’innovation fonctionnent de la sorte. Il n’est pas nécessaire que chaque tentative soit couronnée de succès. Vous avez besoin d’une infrastructure et d’un état d’esprit propice au risque pour saisir celles qui réussissent.

Birgi Tamersoy, de Gartner, reconnaît que la valeur est toujours là, mais qu’elle n’est pas automatique. Les DSI et les équipes stratégiques doivent évaluer ces outils avec soin. Effectuez des évaluations structurées. Testez les performances réelles. Utilisez une surveillance multicouche. Puis déployez.

Pour les cadres, la voie à suivre est pratique. Évitez les approches « tout ou rien ». Investissez dans des cadres qui encouragent les tests contrôlés et les modèles « fail-fast ». Encouragez l’orchestration qui réunit plusieurs systèmes avec un contrôle fiable. Et surtout, veillez à ce que votre culture interne soit axée sur l’apprentissage et l’itération. La confiance dans le système vient de l’exposition, pas de l’optimisme.

L’IA générique produira des résultats. Mais ces résultats appartiendront aux entreprises qui maîtrisent l’architecture du système, et non à celles qui se sont empressées de dire qu’elles l’avaient adoptée en premier.

Réflexions finales

L’IA générative n’est pas en train de disparaître. Elle mûrit, à force de frictions, d’échecs et de perfectionnements. La plupart des bruits se sont calmés, ce qui laisse la place à des travaux plus sérieux. La technologie recèle encore un énorme potentiel, mais la valeur dépend désormais de l’exécution, et non des attentes.

Si vous dirigez des équipes pendant cette période de transition, concentrez-vous sur la structure. Cessez de rechercher la facilité d’utilisation et commencez à construire des systèmes fiables. Donnez la priorité à l’évaluation des modèles, appliquez des normes de fiabilité et intégrez plusieurs méthodes d’IA pour contrôler les risques. Abandonnez les outils autonomes et misez sur l’orchestration qui s’étend à toutes les fonctions.

Ne jetez pas la technologie simplement parce qu’elle n’a pas donné les résultats escomptés du jour au lendemain. La valeur à long terme reviendra aux organisations qui ont dépassé le stade de la démonstration pour se lancer dans un déploiement discipliné. Continuez à expérimenter, mais ne subventionnez pas une mauvaise architecture. Exigez la clarté, la transparence et des résultats mesurables.

Alexander Procter

septembre 5, 2025

20 Min