Le paysage de l’IA n’est pas une bulle, mais plusieurs, chacune avec une horloge

Il n’existe pas de « bulle d’IA » globale. C’est un raisonnement dépassé. Nous observons plutôt des arcs parallèles, des segments de marché distincts, qui évoluent à des vitesses différentes vers des résultats tout à fait différents. On assiste à un engouement et à une spéculation fondés sur des prédictions, mais ils ne sont pas uniformes. Certains éléments tiendront. D’autres non.

Si vous êtes assis dans la suite du PDG, vous devez cesser de vous demander si le marché de l’IA va s’effondrer et commencer à vous demander quelle partie pourrait s’effondrer, et quand. L’économie de l’IA n’est pas constituée d’une seule couche, mais de trois : les enveloppes d’application, les fournisseurs de modèles de base et l’infrastructure de base. Chaque couche a ses propres caractéristiques économiques, ses propres risques de sortie et son propre profil de valeur à long terme.

La couche applicative, principalement composée de sociétés d’emballage, est la première à être corrigée. Il s’agit des entreprises qui construisent des outils légers qui font appel à l’API d’OpenAI ou d’Anthropic et qui facturent un abonnement pour reconditionner les résultats dans une interface élégante. Une croissance rapide ? Bien sûr. Durable ? Non. Elles patinent sur de la glace louée.

Les fournisseurs de modèles de fondation, OpenAI, Anthropic, Mistral, sont en terrain plus solide, mais loin d’être invincibles. Leurs modèles sont puissants et lourds en capital, avec d’énormes enjeux liés à l’infrastructure informatique. Alors que les performances des modèles sur le marché commencent à converger, la différenciation dépendra des compétences techniques approfondies, de l’efficacité et de l’optimisation du déploiement. Vous assisterez à une consolidation. Il est possible que trois acteurs majeurs survivent.

C’est dans l’infrastructure que se trouve la valeur. Nvidia, les fournisseurs de cloud et les opérateurs de centres de données sont peut-être surdimensionnés pour l’instant, mais leur construction reste utile. C’est la seule couche qui conserve une valeur d’actif à long terme, quelles que soient les applications d’IA qui finissent par l’emporter. Les dirigeants intelligents le reconnaissent.

Passons aux chiffres. Il y a plus de 1 300 startups d’IA dans le monde dont la valeur est supérieure à 100 millions de dollars. Près de 500 sont des « licornes » dont la valeur est supérieure à un milliard. Elles ne réussiront pas toutes. Elles n’y parviendront probablement pas, loin s’en faut.

Il est essentiel de savoir dans quelle couche se trouve votre entreprise ou votre capital. Un seul accident ? Peu probable. Mais des corrections échelonnées, chacune selon son propre calendrier ? C’est déjà en cours.

Les sociétés d’emballage ont l’air tape-à-l’œil mais ne durent pas, elles seront les premières à disparaître.

Parlons des entreprises « wrapper ». Il s’agit de startups qui ne construisent pas leurs propres modèles. Elles appellent les API d’OpenAI ou d’Anthropic, les enveloppent d’un certain vernis UX et espèrent que les utilisateurs paieront 30, 50 dollars, parfois plus, par mois. Elles sont rapides à lancer, mais elles sont conçues pour la commodité, pas pour la longévité.

Jasper.ai en est un bon exemple. Rapidement, elle a atteint 42 millions de dollars de revenus récurrents au cours de sa première année. Mais cette rapidité n’est pas synonyme de pérennité. Lorsque des acteurs plus importants comme Microsoft ou Google décident d’intégrer gratuitement des fonctionnalités similaires dans Office ou Gmail, ces enveloppes sont instantanément absorbées. Votre outil à 50 dollars devient l’option de menu d’hier.

Ensuite, il y a le problème de la commutation. Ou l’absence de changement. La plupart de ces entreprises n’enferment pas les utilisateurs dans des données, des infrastructures ou des écosystèmes propriétaires. Vous pouvez passer de l’une à l’autre, ou revenir à ChatGPT, en quelques clics. Pas de fidélité, pas de friction, pas de fossé.

Les marges ? Elles semblent bonnes aujourd’hui, mais elles s’évaporent. À mesure que les coûts des modèles diminuent et que les capacités s’uniformisent entre les fournisseurs, les sociétés de wrapper sont confrontées à une tempête parfaite. Pas de fossé technologique. Aucune possibilité de défense. Et des concurrents qui disposent d’un levier de distribution infini.

Les produits en marque blanche reposent sur les mêmes bases fragiles. Verrouillage du fournisseur, flexibilité limitée de l’API et absence d’appropriation réelle de l’expérience. C’est risqué lorsque vous ne contrôlez même pas les fondations sur lesquelles repose votre entreprise.

Il y a des exceptions. Cursor sort du lot. Il ne se contente pas d’envelopper le modèle, il s’intègre profondément dans les flux de travail des développeurs, crée des configurations personnalisées et apporte une réelle valeur ajoutée au-delà de l’API. La plupart des wrappers ne font pas cela. C’est ce qui fait la différence entre un outil et un produit.

Pour les dirigeants qui investissent dans ces entreprises ou qui les dirigent, le message est clair : agissez vite ou partez. Si vous êtes une entreprise d’emballage, évoluez. Créez des flux de travail propriétaires. Verrouillez le comportement des utilisateurs. Créez des coûts de changement. Si vous ne le faites pas, vous ne risquez pas seulement d’être remplacé. Vous êtes déjà dépassé.

Il faut s’attendre à ce que ce segment soit le premier à s’ouvrir. Ce calendrier n’est pas spéculatif, il est probable qu’il se situe entre la fin de 2025 et le milieu de 2026. Les plateformes se consolident et les attentes des utilisateurs se rapprochent.

Les fournisseurs de modèles de fondation sont plus forts, mais la course est serrée

Examinons maintenant la couche intermédiaire : les entreprises de modèles de base. OpenAI, Anthropic, Mistral, ce sont les laboratoires qui construisent les grands modèles linguistiques de base sur lesquels la plupart des autres s’appuient. Leur position est plus forte que celle des modèles de base, mais n’y voyez pas un gage de stabilité. Leur progression dépend de l’exécution, de l’efficacité de l’ingénierie et de l’endurance du capital.

Ces entreprises disposent d’avantages techniques importants, d’une expertise en matière de formation, de talents de premier plan et de partenariats uniques en matière d’infrastructure, mais l’écart se resserre. La différence de qualité entre les modèles se réduit rapidement. Au fur et à mesure que les capacités convergent, les modèles deviendront plus difficiles à différencier. À ce moment-là, vous ne vendrez pas des performances exceptionnelles, mais un accès à l’infrastructure avec une marge plus faible.

Ce qui se passe ensuite, c’est une course. Il ne s’agit plus de savoir qui a le plus grand parcours d’entraînement. Il s’agit de savoir qui réduit les coûts d’inférence, qui augmente le débit et qui peut fournir des résultats plus rapides avec moins de calculs. L’ingénierie compte plus que le battage médiatique. Les innovations telles que les extensions de cache KV, les améliorations du flux de jetons et l’optimisation du routage de la mémoire permettront de distinguer les entreprises qui resteront indépendantes de celles qui seront rachetées.

Il y a ensuite la structure du capital. Certaines de ces entreprises fonctionnent avec des fonds considérables qui ne correspondent pas aux revenus actuels. OpenAI est impliquée dans des transactions avoisinant les 1 000 milliards de dollars, y compris un plan de 500 milliards de dollars pour développer l’infrastructure des centres de données, financé en grande partie par Nvidia. Pourtant, elle ne devrait générer qu’environ 13 milliards de dollars de revenus. Ce niveau de déséquilibre attire l’attention. Il s’agit d’une dynamique de bulle, même si la technologie de base est réelle.

Il existe également une dépendance circulaire. Nvidia finance l’infrastructure pour OpenAI, et OpenAI utilise cette infrastructure pour générer une demande, pour les microprocesseurs de Nvidia. Ce type de volant d’inertie peut surestimer la demande réelle du marché et fausser le risque. Cela ne fait pas de ces entreprises de mauvais paris, mais cela soulève des questions quant à la durabilité sans correction externe.

Pour l’avenir, il faut s’attendre à une consolidation entre 2026 et 2028. Les fournisseurs de modèles les mieux capitalisés resteront. Les autres disparaîtront ou seront rachetés. Pour les dirigeants, il est essentiel de se concentrer sur l’efficacité. Les gagnants n’auront pas seulement les meilleurs modèles, ils auront aussi le moyen le plus simple, le plus rapide et le plus abordable de les déployer à grande échelle.

L’infrastructure est la base qui maintiendra

Concentrons-nous maintenant sur la couche d’infrastructure, c’est là que le terrain est solide.

Lorsque les gens se demandent où se trouve la valeur durable de l’IA, c’est ici : les centres de données, les microprocesseurs, la disponibilité du cloud, les systèmes de mémoire à large bande passante, les couches de stockage réglées pour les charges de travail d’IA. Cette pile existe indépendamment de ce qui se passe au-dessus d’elle. Elle sert toutes les couches, des modèles de base aux enveloppes, et son utilité ne disparaît pas en cas de défaillance d’un seul produit.

Les critiques pointent du doigt les dépenses. Et oui, elles sont massives. Les dépenses mondiales en capital liées à l’IA dépassent déjà 600 milliards de dollars. Gartner prévoit que les dépenses totales en matière d’IA pourraient atteindre 1 500 milliards de dollars d’ici à 2025. Cela peut sembler excessif, mais une croissance sérieuse repose sur un engagement excessif dès le départ. Même si certains centres de données manquent de capacité à court terme, ce matériel ne perd pas de sa valeur. Il est réutilisé. Il est mis à jour. Il continue à fonctionner.

Examinez ensuite les signaux de la demande réelle. Le chiffre d’affaires de Nvidia pour le troisième trimestre de l’exercice 2025 a atteint 57 milliards de dollars. Ce chiffre est en hausse de 62 % d’une année sur l’autre. Son activité de centres de données a généré à elle seule 51,2 milliards de dollars. Il ne s’agit pas de paris faciles. Les entreprises déploient des infrastructures pour des charges de travail réelles, et pas seulement des POC ou des pilotes de démonstration.

Et l’infrastructure d’aujourd’hui ne se limite pas au stockage et au calcul. Elle couvre toute la hiérarchie de la mémoire, HBM sur les GPU, DRAM buffering, jusqu’à l’empilement de stockage à grande vitesse. Ces conceptions ne sont pas interchangeables avec les systèmes existants. Ils sont conçus à dessein et continueront à servir les charges de travail longtemps après le remplacement des outils frontaux d’aujourd’hui.

Pour les chefs d’entreprise, c’est à ce niveau que les paris à long terme prennent tout leur sens. Oui, certaines installations peuvent être sous-utilisées à court terme. Oui, toutes les commandes de microprocesseurs ne seront pas maximalement efficaces dans la première vague. Mais à mesure que l’écosystème mûrit, la couche d’infrastructure évolue avec lui, que les gagnants soient des chatbots, des systèmes agentiques ou quelque chose d’entièrement imprévu.

En définitive, l’infrastructure n’est pas seulement nécessaire, elle est aussi non discrétionnaire. Il ne s’agit pas d’un battage spéculatif. C’est l’épine dorsale de l’IA, et elle est là pour rester.

La correction du marché de l’IA sera échelonnée

Ne vous attendez pas à ce que le secteur de l’IA s’effondre d’un seul coup. Cela n’arrivera pas. La correction se fera par vagues, et elle est déjà en cours.

La première phase est déjà visible : les entreprises d’emballage commencent à ressentir la pression. Leurs marges se réduisent. Les utilisateurs remettent en question leur valeur. Les grandes plateformes reproduisent leurs fonctionnalités. Des centaines de startups qui se sont construites sur une faible différenciation, sans technologie propriétaire, sans propriété du flux de travail, sont en train de manquer de place. Certaines disparaîtront, d’autres se retireront pour une fraction de leur valeur.

La deuxième phase suivra peu après : les fournisseurs de modèles de fondation seront confrontés à une consolidation. En Amérique du Nord et en Europe, vous verrez des acteurs de taille moyenne absorbés ou fermés. Les laboratoires les plus solides et les mieux capitalisés, ceux qui disposent d’un modèle d’optimisation de bout en bout et de partenariats industriels clés, prendront davantage de parts. Attendez-vous à trois à cinq acquisitions significatives entre 2026 et 2028, alors que les majors du cloud et les entreprises de portefeuille centrées sur l’IA réduisent le champ d’action. Si votre entreprise dépend d’un fournisseur de modèles de fondation de second rang, il est temps de réévaluer les risques liés aux fournisseurs.

La troisième phase est plus stable mais nécessite toujours une prise de conscience : les dépenses d’infrastructure sont élevées et le resteront. Il est vrai que certaines constructions dépasseront la demande à court terme. Certaines installations pourraient rester partiellement inutilisées pendant deux ou trois ans. Mais au fur et à mesure que l’utilisation de l’IA s’intensifie et que de nouvelles applications gagnent du terrain, cette capacité sera absorbée. L’infrastructure peut subir une légère correction à court terme, mais à long terme, le capital conserve sa valeur.

Pour les cadres, cette correction échelonnée est un avantage. Elle est prévisible. Vous pouvez cartographier votre exposition par couche et par calendrier. Si vous êtes lié à la monétisation de type « wrapper », accélérez votre changement. Si vous misez sur les modèles, redoublez d’efforts en matière de distribution et d’inférence. Si vous êtes dans l’infrastructure, continuez à construire, mais améliorez l’efficacité et la capacité d’anticipation.

Dans l’ensemble, le marché se rééquilibre progressivement. Plus important encore, toutes les pertes ne sont pas égales et tous les gains ne disparaissent pas. Ce qui compte, c’est la précision de vos opérations.

De l’emballage à l’entreprise, évoluer ou se retirer

Soyons francs : si vous vous contentez encore d’envelopper une API et d’envoyer des réponses, ce n’est pas une entreprise, c’est une fonctionnalité. C’est bien pour une démonstration en classe ou une première tentative pour explorer l’adéquation produit-marché, mais ce n’est pas viable à long terme. De nombreuses startups sont bloquées à ce stade. La plupart ne survivront pas.

Si vous construisez au niveau de la couche applicative, vous devez posséder bien plus que le résultat. Vous devez vous approprier les flux de travail des utilisateurs, ce qui se passe avant, pendant et après la réponse de l’IA. Cela signifie qu’il faut intégrer des outils clés, construire une logique contextuelle et générer des données propriétaires qui renforcent la valeur du produit à chaque fois que les utilisateurs reviennent.

Le niveau supérieur est le SaaS vertical. Il ne s’agit pas de grandes plateformes, mais de produits ciblés et profondément intégrés pour les ventes, le juridique, la logistique, la finance, etc. Ces produits fonctionnent parce qu’ils compriment l’exécution de bout en bout dans un seul environnement. Ils créent des frictions de commutation. Ils résolvent les flux de travail réels de manière globale, et non pas un clic à la fois.

Si vous n’évoluez pas, vous serez confronté au risque de la distribution. Car c’est au niveau de la distribution que se forme le fossé. Pas seulement l’acquisition, mais aussi l’activation, la rétention et la vente incitative au sein de votre écosystème. Les meilleurs produits d’IA ne se contenteront pas de répondre aux questions. Ils posséderont la couche d’exploitation autour de laquelle les clients construisent leur journée.

Pour les équipes dirigeantes, il s’agit d’une question de direction. Il ne s’agit pas d’une course à l’armement. Il s’agit d’une bataille pour les flux de travail des utilisateurs, les intégrations et l’adhésion. Alors qu’OpenAI, Google Cloud et Microsoft Azure continuent d’étendre leurs plateformes modèles, la seule position défendable est de construire au-dessus, en s’appropriant une relation utilisateur différenciée qui ne peut pas être facilement déplacée.

Ne restez pas au stade de l’emballage. Soit vous montez rapidement dans la pile, soit vous vous retirez avant que votre évaluation ne le fasse.

Ne vous demandez plus s’il existe une bulle de l’IA, mais plutôt laquelle et quand elle expirera.

La vraie question n’est pas « Sommes-nous dans une bulle d’IA ? ». Cette question est trop générale et trop tardive. Il est préférable de se demander dans quelle bulle de l’IA nous nous trouvons, et quand ce segment spécifique atteindra-t-il son apogée ou se résorbera-t-il ?

Ce secteur n’évolue pas comme une seule unité. Chaque couche, les enveloppes d’application, les modèles de base, l’infrastructure, a sa propre structure de capital, son propre risque de produit et son propre calendrier. Traiter l’investissement dans l’IA comme un pari uniforme est une stratégie erronée au niveau du leadership. Les décisions doivent être basées sur la couche dans laquelle vous opérez, et pas seulement sur la tendance générale.

L’avenir de chaque couche est différent. Les entreprises de conditionnement commenceront à s’effondrer dès 2025. La durée de vie de leurs produits est courte, leurs marges sont minces et leur capacité de défense s’amenuise. Cette phase est déjà en cours. Ensuite, les fournisseurs de modèles de fondation se consolideront entre 2026 et 2028. Seuls ceux qui proposent une inférence à faible coût, un déploiement rapide et des accords à grande échelle passeront ce filtre. L’infrastructure, bien qu’elle ne soit pas à l’abri d’une surconstruction à court terme, est résiliente à long terme.

Les lignes du temps sont toutes visibles si vous êtes attentif. Enveloppeurs : 12 à 18 mois de piste avant la contraction. Modèles de base : 2 à 4 ans avant que l’on sache qui survivra à l’échelle. Infrastructure : au moins une décennie de pertinence à mesure que le volume de travail de l’IA augmente.

Si vous êtes responsable des capitaux, des partenariats ou de l’orientation stratégique, ce qui compte, c’est la connaissance de la situation. Suivez votre exposition à travers les différentes couches. Mesurez la combustion et la capacité de défense. Ne planifiez pas en fonction du sentiment général. Planifiez en fonction des signaux spécifiques à chaque étape.

Il ne s’agit pas de pessimisme. La vague de l’IA est bien réelle. Mais tous les participants ne parviennent pas à passer de l’autre côté. L’état par défaut de ce marché est la volatilité, et la seule véritable protection consiste à savoir exactement où vous vous situez et ce qui va se passer ensuite.

Effectuez des mouvements plus précis. Ignorez le bruit. Suivez les échéances. C’est ainsi que vous resterez pertinent.

Dernières réflexions

Si vous dirigez une entreprise, allouez des capitaux ou construisez dans ce domaine, la plus grande erreur actuelle est de considérer l’IA comme un pari sur un seul marché. Ce n’est pas le cas. Les risques et les opportunités ne sont pas répartis uniformément. Certains segments prendront de l’ampleur. D’autres s’effondreront sous leur propre poids.

Il ne s’agit pas d’éviter l’IA. Il s’agit de savoir clairement où vous vous situez et où se situent vos risques. Les entreprises qui utilisent le modèle de l’enveloppe doivent évoluer maintenant, sinon elles sont finies. Les fournisseurs de modèles de base devront s’adapter à l’échelle, et pas seulement à la capacité. Les acteurs de l’infrastructure doivent rester concentrés, mais optimiser l’efficacité au détriment des dépenses globales.

L’effondrement ne se produira pas d’un seul coup, mais par étapes. Vous avez suffisamment de temps pour vous déplacer, si vous agissez avec précision.

L’IA est une réalité. Elle est puissante. Mais elle n’est pas à l’abri d’une surconstruction ou d’une mauvaise gestion. Ne présumez pas de sa survie. Concevez-la.

Gardez votre tranchant. Connaissez votre couche. Et agissez avant que le marché ne décide pour vous.

Alexander Procter

janvier 20, 2026

17 Min