De nombreux projets d’IA échouent en raison de priorités mal placées et d’un manque de planification fondamentale.

Les investissements dans l’IA ont augmenté dans tous les secteurs, mais les résultats se font attendre. La plupart des projets d’IA dans les entreprises avant d’avoir un impact réel sur la production. Le problème de fond est le manque d’alignement stratégique. De nombreux dirigeants lancent des initiatives d’IA sans avoir une idée claire de ce qu’ils essaient d’accomplir. Vous voyez l’IA dans la diapositive du conseil d’administration, il y a donc une pression pour la déployer rapidement, avant même d’avoir identifié un cas d’utilisation spécifique ou utile. C’est une mauvaise utilisation du temps, du talent et du capital.

Avant d’élaborer un modèle, les dirigeants doivent faire une pause et se poser les questions suivantes : Quel problème commercial sommes-nous en train de résoudre ? L’IA est-elle l’outil nécessaire ? Comment le succès sera-t-il mesuré ? Sans ces réponses, vous n’êtes pas en train de construire de la valeur, vous ne faites qu’expérimenter une technologie coûteuse.

Le problème est très répandu. Santiago Valdarrama, l’un des principaux architectes de l’apprentissage automatique, le dit bien : « Tout le monde le fait, mais personne ne sait pourquoi. » Lorsque l’adoption de l’IA est motivée par le FOMO plutôt que par un raisonnement commercial clair, l’échec est presque garanti. Les leaders les plus efficaces en matière d’IA ne sont pas ceux qui expérimentent les derniers modèles ; ce sont ceux qui partent d’un problème qui mérite d’être résolu.

Il ne s’agit pas d’un appel à ralentir l’innovation. Il s’agit plutôt de réfléchir davantage avant d’agir. Lorsque la stratégie guide la mise en œuvre, l’IA peut produire des résultats exponentiels. Dans le cas contraire, vous risquez de brûler des ressources sans direction.

L’application erronée de l’IA à des problèmes qui ne le nécessitent pas entraîne un gaspillage de ressources.

Il n’est pas nécessaire de résoudre tous les problèmes, en fait très peu, à l’aide de l’intelligence artificielle. Les entreprises imposent souvent l’IA là où elle n’a pas sa place. Au lieu de commencer par une analyse claire de la tâche, elles supposent que l’intelligence artificielle ou l’apprentissage profond doivent être la solution. Cela conduit à des délais gonflés, à une complexité inutile et à des retours peu clairs.

Commencez par la simplicité. Les données structurées, une logique forte et des règles claires permettent de résoudre bien des problèmes. Noah Lorang, ancien responsable de la science des données chez Basecamp, a déclaré un jour : « La plupart [des problèmes] nécessitent simplement de bonnes données et une compréhension de ce qu’elles signifient. » Il a raison. La plupart des décisions commerciales bénéficient davantage de la transparence et du déterminisme que des systèmes à boîte noire. Si vous pouvez utiliser une règle fiable ou même un modèle heuristique, utilisez-le. Réservez l’IA aux cas extrêmes qui ne peuvent être résolus par des moyens traditionnels.

Lorsque les entreprises adoptent cet état d’esprit, elles comprennent mieux les défis auxquels elles sont confrontées. Elles établissent également des données de référence, de sorte que si l’apprentissage automatique est appliqué ultérieurement, l’organisation peut réellement mesurer s’il produit de meilleurs résultats. Santiago Valdarrama conseille aux équipes d’éviter de se lancer immédiatement dans TensorFlow ou PyTorch. Commencez par des règles claires. Répétez l’expérience. Apprenez. Ce n’est qu’à ce moment-là que l’IA prend tout son sens.

L’IA n’est pas l’objectif. Ce sont les résultats commerciaux qui le sont. L’IA n’est qu’un moyen d’y parvenir, et parfois pas le meilleur.

La mauvaise qualité des données et le manque de préparation des données sont à l’origine de nombreux échecs de projets d’IA

La plupart des projets d’IA n’échouent pas parce que le modèle était erronémais parce que les données l’étaient. Les entreprises sous-estiment l’importance de recueillir des données propres, fiables et pertinentes avant même de toucher à un algorithme. Lorsque vous fournissez à un système d’apprentissage automatique des données incomplètes, obsolètes ou biaisées, vous le mettez sur la voie de l’échec. Il s’agit d’un processus discipliné impliquant le nettoyage, l’étiquetage et la vérification des données. Si vous ne le faites pas, vous perdez toute la sophistication de votre modèle.

Selon Gartner, près de 85 % des projets d’IA échouent en raison de la mauvaise qualité des données ou du manque de données utilisables. Cela n’a rien de surprenant. Les entreprises réalisent souvent trop tard que leurs données internes sont dispersées dans des silos, criblées d’incohérences et dépourvues de contexte. Vous ne pouvez pas attendre d’un modèle qu’il apprenne avec précision à partir de données erronées. Les systèmes d’IA ne reflètent que les données utilisées pour les former. Des données d’entraînement de mauvaise qualité conduisent à des résultats instables et peu fiables.

Les entreprises qui y parviennent considèrent l’ingénierie des données comme une compétence essentielle. Elles investissent dans l’infrastructure pour gérer les pipelines, appliquent des normes de gouvernance et font appel à des experts du domaine pour s’assurer que les données correspondent réellement au problème de l’entreprise. Les développeurs le comprennent. Les dirigeants doivent les budgétiser et leur donner la priorité. Le logiciel peut être le visage d’un produit d’IA, mais en dessous de tout cela, des données propres et précises sont le point de départ de la performance.

Des paramètres de réussite vagues ou mal définis réduisent l’impact des initiatives en matière d’IA.

Les projets d’IA doivent être directement liés à des résultats commerciaux mesurables. Ce n’est pas négociable. Trop souvent, les équipes lancent des systèmes d’apprentissage automatique sans définir d’indicateurs clés de performance (ICP) clairs. Ensuite, le modèle est écrit, déployé, voire démontré, et personne ne sait à quoi ressemble le succès. Résultat ? Vous pouvez avoir une solution techniquement correcte mais qui ne répond pas aux attentes de l’entreprise.

On n’améliore pas ce que l’on ne mesure pas. Si vous développez un modèle de détection des fraudes, définissez ce que signifie l’amélioration en termes concrets : X % de faux positifs en moins et Y % de cas détectés en plus. Si vous développez un moteur de recommandation de produits, définissez l’impact sur la rétention ou l’augmentation du chiffre d’affaires. En l’absence de mesures, votre équipe évalue les progrès à l’instinct, ce que les investisseurs et les clients n’acceptent pas.

Shreya Shankar, ingénieur ML, l’a bien compris lorsqu’elle a déclaré : « La plupart des gens n’ont aucune forme d’évaluation systématique avant d’embarquer… leurs attentes sont donc purement basées sur les vibrations. » Cela peut être évité. Définissez un ou deux indicateurs précis avant le début du travail, alignez vos équipes techniques et commerciales sur ce qui est bon, et assurez-vous que si le modèle atteint ces chiffres, la direction est d’accord pour dire que c’est une victoire. En particulier dans les suites, ne présumez pas de l’alignement, exigez-le.

Cet alignement protège votre calendrier, votre budget et vos talents. Il garantit que les développeurs ne recyclent pas les modèles pour des raisons obscures et il aide les cadres à rendre compte de résultats réellement utiles. Dans les cas d’utilisation à fort enjeu, les indicateurs clés de performance ne sont pas facultatifs, ils sont le point d’ancrage du retour sur investissement.

Ignorer la boucle de rétroaction empêche les modèles d’IA de s’adapter à l’évolution des conditions

La plupart des modèles d’IA se dégradent avec le temps. Ils ne tombent pas en panne immédiatement, mais ils dérivent. Les données changent. Le comportement des clients change. Les environnements réglementaires évoluent. Si vous ne recueillez pas activement des informations en retour, si vous n’entraînez pas le modèle et si vous ne l’affinez pas, vous finirez par perdre en pertinence et en performance. Un produit d’IA fonctionnel nécessite une maintenance continue. De nombreuses équipes sous-estiment la quantité de travail qui commence après le déploiement. C’est là que la plupart des projets achoppent.

De nombreuses organisations traitent encore l’IA comme un logiciel traditionnel : on construit une fois, on déploie, et c’est fini. Cet état d’esprit ne correspond pas à la réalité. Les systèmes d’IA ont besoin d’une boucle de rétroaction qui enregistre les échecs, les entrées inhabituelles et les interactions avec les utilisateurs. Vous vous entraînez à nouveau à l’aide de ces données et vous redéployez. C’est ainsi que l’on maintient des performances élevées et un faible taux d’erreurs.

Shreya Shankar, ingénieur en apprentissage automatique respecté, souligne que les équipes s’attendent souvent à une très grande précision juste après le lancement, sans mettre en place l’infrastructure nécessaire pour évaluer ou améliorer le système. Cette situation est courante et tout à fait évitable. Si votre entreprise ne suit pas le comportement des modèles en production, vous êtes à l’aveuglette.

La véritable solution consiste à donner la priorité à ce que les équipes MLOps appellent le « volant de données », un système qui recueille en permanence des données d’utilisation en direct, qui informe des mises à jour de modèles et qui les réintroduit dans la production. Cela nécessite un investissement, c’est vrai. Mais sans cela, vos systèmes d’IA stagnent, et les retours sur investissement aussi. Les dirigeants doivent considérer les boucles de rétroaction comme une capacité essentielle, et non comme un avantage.

De nombreux prototypes d’IA ne passent jamais à l’étape de la production en raison du phénomène du « purgatoire des pilotes ».

Trop d’entreprises construisent des preuves de concept d’IA qui ne voient jamais le jour en production. Elles sont lancées pour impressionner les parties prenantes, répondre à la pression du conseil d’administration ou rattraper leurs concurrents. Mais elles ne s’étendent pas. Elles ne s’intègrent pas. Elles ne sont pas rentables. Le problème n’est pas que la technologie ne fonctionne pas, mais que le projet n’a jamais été conçu pour une exécution à long terme.

Les projets pilotes d’IA bénéficient souvent d’un financement juste suffisant pour obtenir un résultat qui semble satisfaisant dans une démo. Mais passer d’un prototype à un produit fonctionnel nécessite une véritable ingénierie : sécuriser les ensembles de données, s’aligner sur les systèmes de production, traiter les cas limites, gérer les commentaires des utilisateurs, mettre en place un suivi et élaborer des mesures de protection. La plupart des équipes n’ont ni le temps ni le budget pour cette deuxième phase, et le projet pilote meurt tranquillement.

Une dynamique commerciale plus large est également en jeu. Ashish Nadkarni, vice-président du groupe IDC, souligne que de nombreuses initiatives d’IA générative sont « nées au niveau du conseil d’administration », et non en raison d’une analyse de rentabilité claire. Cette pression de ruissellement conduit à une expérimentation rapide sans engagement opérationnel fort.

Les dirigeants qui souhaitent obtenir des résultats concrets doivent commencer à envisager les projets d’IA au-delà du prototype. Financez le cycle de vie complet, la conception, la construction, la mise à l’échelle, le suivi. Si vous n’êtes pas prêt à soutenir un projet au-delà de la démonstration, ne le construisez pas. L’impact réel nécessite l’intégration dans les systèmes centraux et l’alignement sur les objectifs à long terme. Tout ce qui ne l’est pas n’est qu’une diapositive de présentation.

Les développeurs jouent un rôle essentiel dans le redressement des projets d’IA en difficulté

La réalité est la suivante : le succès ou l’échec des initiatives en matière d’IA se résume souvent à l’exécution. Cette responsabilité n’incombe pas uniquement aux dirigeants. Les développeurs, les scientifiques des données et les ingénieurs sont ceux qui traduisent la vision en systèmes. Lorsque les projets d’IA fonctionnent, c’est généralement parce que les personnes sur le terrain ont pris des décisions intentionnelles et ciblées, en repoussant les objectifs qui n’étaient pas clairs, en exigeant de meilleures données et en insistant sur des méthodes d’évaluation pratiques.

Les meilleurs résultats sont obtenus par les équipes qui traitent l’IA comme un problème d’ingénierie permanent, et non comme un déploiement ponctuel. Elles savent que la performance ne provient pas uniquement d’un modèle intelligent. Elle provient de tout ce qui se passe avant et après, des pipelines de données aux systèmes de surveillance en passant par l’infrastructure de recyclage. Les développeurs qui abordent l’IA avec ce type de discipline opérationnelle font une réelle différence, en particulier lorsque la direction leur accorde le temps, les outils et la clarté nécessaires pour s’approprier l’ensemble du cycle de vie.

Cette perspective doit être renforcée au sommet de la hiérarchie. Les dirigeants devraient donner à leurs équipes techniques les moyens de s’exprimer lorsque les priorités sont inversées ou lorsque les attentes ne sont pas en phase avec les ressources disponibles. De nombreux développeurs comprennent déjà les risques liés à la construction d’un projet sans indicateurs de réussite clairs ou sans fondations solides ; ils ont simplement besoin d’être encouragés à ralentir lorsque cela compte et à accélérer lorsque les fondamentaux sont en place.

L’expression « l’IA de niveau production, c’est tout le travail qui se fait avant et après l’invite » va droit au but. Les efforts déployés en coulisses, la validation des données, la conception du système, la supervision du déploiement, c’est là que se cache la majeure partie de l’impact. L’impact réel de l’IA n’est pas une question de résultats tape-à-l’œil. Il s’agit de systèmes robustes construits par des équipes qui savent comment relier l’ingénierie à la valeur commerciale. Vos développeurs ne se contentent pas d’exécuter votre stratégie d’IA, ils déterminent si elle fonctionne. Laissez-les diriger.

Le bilan

L’IA n’échoue pas parce que la technologie est faible. Elle échoue parce que l’exécution est bâclée, que les attentes sont vagues et que les principes fondamentaux sont ignorés. Ce n’est pas un défaut de l’IA, c’est un défaut dans la façon dont elle est utilisée.

L’avantage va aux dirigeants qui traitent l’IA comme n’importe quel investissement sérieux dans un produit : des objectifs clairs, les bonnes équipes, des données solides, une itération continue. Si vous ne tenez pas compte de ces éléments, les coûts s’alourdissent. Vous perdrez du temps, du capital et de la confiance pour des résultats qui n’évolueront pas.

Les dirigeants n’ont pas besoin de devenir des experts en apprentissage automatique. Mais vous devez maintenir la barre de la clarté, de la responsabilité et de la réflexion à long terme. Soutenez vos développeurs. Donnez-leur la possibilité de dire « pas encore » lorsque les choses ne sont pas prêtes, et privilégiez la structure plutôt que la rapidité. C’est dans cet état d’esprit que vous ferez passer l’IA des gros titres à l’impact.

Alexander Procter

septembre 29, 2025

13 Min