L’IA agentique n’augmentera pas les revenus des principaux fournisseurs de cloud public.

Le battage médiatique autour de l’IA générative a enthousiasmé les hyperscalers, et ce pour de bonnes raisons. L’exécution de modèles de grande taille consomme beaucoup de puissance de calcul. Cela correspond parfaitement à l’infrastructure centralisée du cloud public. AWS, Azure et Google Cloud ont donc vu une victoire facile : plus d’IA signifie plus de demande pour leurs plateformes cloud. C’est simple.

Mais l’IA agentique est différente. Elle n’est pas conçue pour être hébergée de manière centralisée dans des centres de données massifs. Elle est conçue pour penser par elle-même et fonctionner dans divers environnements, des centres de données sur site, des clouds souverains, des hébergements gérés, et même des configurations en périphérie. Cela signifie qu’elle n’a pas besoin de clusters de GPU spécialisés que seuls les hyperscalers fournissent. Il adopte une approche plus distribuée. Elle est plus légère, plus intelligente et plus autonome.

Pour quiconque s’attend à obtenir les mêmes rendements économiques qu’avec l’hébergement de l’IA générative, cette situation est gênante. La planification autour d’une augmentation unique des revenus due à la consolidation ne tient pas lorsque la technologie sous-jacente privilégie l’autonomie et la production par rapport à l’échelle. L’IA agentique ne veut pas vivre dans un jardin clos, elle préfère voyager léger et s’intégrer à la volée.

Les dirigeants des entreprises d’hyperscalers doivent digérer cela : la prochaine génération d’IA n’est pas assurée de favoriser la consommation de ressources cloud. Si l’IA agentique se généralise, votre produit le plus lucratif, le calcul centralisé à grande échelle, ne sera plus la destination par défaut.

La conception distribuée de l’IA agentique réduit le besoin d’une infrastructure cloud centralisée à grande échelle.

La plupart des gens ne comprennent pas ce qu’est l IA agentique agentique. Il ne s’agit pas simplement d’une version réduite de l’IA générative. Il s’agit d’une idée différente. Considérez-la comme un système capable de choisir ses tâches, de gérer ses propres ressources et d’intégrer des services uniquement en cas de besoin. Il n’a pas besoin de toute la puissance de feu au départ. Elle se concentre sur l’efficacité par nature.

De par sa conception, l’IA agentique ne dépend pas de la centralisation. Elle fonctionne souvent très bien sur du matériel standard. Elle peut utiliser des modèles spécifiques en petits langages et appeler des API si nécessaire. Le principal avantage est une intelligence modulaire, orientée vers les tâches. Elle est efficace et flexible. Cela rend les grandes infrastructures centralisées inutiles, pas inutiles, mais pas nécessaires pour la plupart des cas d’utilisation.

C’est pourquoi le mouvement vers l’informatique de pointe et les environnements hybrides est si bien adapté. Les systèmes agentiques fonctionnent là où ils sont nécessaires, dans une usine, à la périphérie du réseau, à l’intérieur d’un centre de données local. Ils sont autonomes, et c’est là tout l’intérêt. Les entreprises y voient une victoire, car cela permet de réduire la latence, d’économiser sur la bande passante et de réduire les factures liées au cloud.

La nuance est essentielle. Cette tendance donne du pouvoir aux entreprises, et pas seulement aux fournisseurs de cloud. Si vous êtes à la tête d’une entreprise, l’IA agentique vous offre un contrôle de niveau exécutif : des coûts d’exploitation réduits, davantage d’options de déploiement et aucune obligation de faire évoluer l’infrastructure par le biais d’un verrouillage de l’hyperscaler.

L’infrastructure informatique moderne est souvent plus propice à l’IA agentique que les hyperscalers traditionnels.

L’IA agentique n’est pas enfermée dans un modèle d’infrastructure spécifique. Cela lui donne une grande marge de manœuvre. Elle n’a pas besoin d’un hyperscaler pour fonctionner et, dans de nombreux cas, elle est plus performante lorsqu’elle est déployée plus près de l’entreprise, dans des environnements sur site, hébergés ou hybrides. Nous assistons aujourd’hui à l’émergence d’un paysage d’infrastructures plus large, allant des fournisseurs de cloud souverains aux acteurs régionaux, en passant par des options de colocation efficaces. Nombre d’entre eux offrent une plus grande flexibilité, de meilleures structures de coûts et un contrôle direct sur les performances et la sécurité.

Cette diversité accrue permet aux chefs d’entreprise d’utiliser des systèmes d’IA intelligents là où ils le souhaitent, et pas seulement là où les hyperscalers l’exigent. C’est une victoire. Il n’y a plus de voie unique vers l’évolutivité de l’IA. Vous pouvez concevoir des systèmes qui privilégient la souveraineté, la conformité, la rentabilité ou la réduction de la latence. L’IA agentique fonctionne avec tous ces éléments. Elle est adaptable par défaut.

La plupart des entreprises ont déjà mis en place une infrastructure hybride complexe au fil des ans. L’IA agentique s’intègre dans ce modèle sans perturbation. Vous n’avez pas besoin de vous engager de manière excessive dans une nouvelle infrastructure, ni d’augmenter vos dépenses en ressources centralisées lourdes. Pour un DSI ou un directeur technique, cette flexibilité se traduit directement par un avantage commercial, plus d’options, moins de risques et des voies plus claires vers le retour sur investissement.

L’avantage des hyperscalers s’est construit sur l’échelle et la centralisation. Mais l’IA agentique récompense la précision, l’autonomie et le contrôle de l’architecture. Cela réduit l’avantage des hyperscalers dans cette évolution spécifique de l’IA. Les décisions ne viennent plus seulement du département informatique. Les dirigeants qui planifient des stratégies d’investissement à long terme doivent comprendre ce changement, qui est déjà en cours.

L’avenir de l’infrastructure d’IA favorisera les stratégies multi-fournisseurs et les architectures modulaires de type « pont ».

Les stratégies d’IA des entreprises s’orientent vers des modèles d’infrastructure dynamiques et flexibles qui font appel à de multiples fournisseurs. En pratique, cela signifie qu’il faut architecturer des systèmes qui couvrent les clouds privés, les clouds publics, les systèmes périphériques, les fournisseurs régionaux et les environnements de colocation, quelle que soit la combinaison qui offre la meilleure performance par tâche.

Au lieu d’une tour centralisée, vous envisagez des systèmes où des parties de la charge de travail sont distribuées et gérées par différents éléments à travers un réseau. Cette approche offre aux entreprises une très grande flexibilité. Il s’agit moins d’une domination du cloud que d’une orchestration intelligente. Chaque composant, qu’il s’agisse d’un processeur dans votre centre de données privé ou d’un appel d’API à un LLM tiers, fonctionne dans le cadre d’un système orchestré plus large.

Pour les fournisseurs de clouds publics, cette évolution ne les éliminera pas, mais elle les repositionnera. Ils ne seront plus au centre. Ils seront l’une des nombreuses pièces mobiles d’une approche multi-cloud et multi-fournisseurs. Du point de vue de la direction, il s’agit de réduire les risques, d’offrir des plates-formes optionnelles et de favoriser l’agilité du déploiement. Vous achetez ce dont vous avez besoin, là où vous en avez besoin, et vous ajustez les performances ou les coûts en fonction de vos besoins.

Les grandes entreprises conçoivent déjà des projets autour de ces architectures. Il ne s’agit pas de laboratoires expérimentaux, mais d’un déploiement au niveau de la production, au niveau de l’entreprise. Si vous avez investi en partant du principe que les hyperscalers resteront la solution par défaut pour l’IA, il est temps de revoir votre façon de penser. L’infrastructure agile l’emporte sur l’infrastructure bloquée. C’est ce que le marché récompense aujourd’hui.

Les coûts élevés des charges de travail d’IA sur les plateformes hyperscaler incitent à réévaluer la confiance dans le cloud public.

Il y a dix ans, passer au cloud semblait être une victoire directe, réduction des coûts, simplification, évolutivité. Mais l’économie a changé, en particulier lorsque l’IA est entrée en scène. L’exécution de charges de travail d’IA générative et agentive sur des systèmes de cloud public a engendré des coûts inattendus. Ces charges de travail sont lourdes en calcul, imprévisibles, gourmandes en bande passante et souvent inefficaces lorsqu’elles sont déployées à grande échelle sur une infrastructure centralisée.

Les équipes d’entreprise regardent leurs factures mensuelles de cloud et se rendent compte que l’économie ne tient pas la route, en particulier lorsqu’elle est mise à l’échelle de plusieurs cas d’utilisation de l’IA. De nombreuses entreprises qui ont migré très tôt vers le cloud s’interrogent aujourd’hui sur la viabilité à long terme de ces modèles. Les attentes en matière de rentabilité sont battues en brèche par la réalité.

Entre-temps, le coût de la propriété ou de la location de l’infrastructure a chuté. Vous n’avez plus besoin de votre propre équipe de centre de données pour obtenir un contrôle sur place. Les fournisseurs de colocation, les services gérés et le matériel prêt à l’emploi offrent aux entreprises des alternatives à faible friction. Ces environnements offrent les performances nécessaires pour former ou exécuter des systèmes d’IA, sans les primes du cloud.

L’IA a clairement montré que le cloud centralisé n’est pas toujours le choix le plus rationnel, en particulier lorsque le coût total de possession est en jeu.

Les responsables informatiques et les chefs d’entreprise doivent réévaluer les stratégies de cloud par défaut. La flexibilité, la transparence des prix et les performances opérationnelles comptent davantage aujourd’hui que l’évolutivité abstraite, en particulier lorsque l’IA définit votre avantage concurrentiel.

Les hyperscalers doivent s’adapter à un écosystème d’IA décentralisé pour rester compétitifs et pertinents.

Dans le monde décentralisé de l’IA agentique, les hyperscalers ne sont définitivement plus le point de départ obligatoire. Leur infrastructure clé aura toujours de la valeur, mais l’hypothèse selon laquelle tout le développement de l’IA passe par eux n’est plus vraie.

Alors que de plus en plus d’entreprises adoptent des stratégies modulaires et hybrides, les hyperscalers vont devoir passer du statut de plateformes complètes à celui de fournisseurs d’infrastructures et de services plus ciblés. Leurs offres devront s’intégrer dans des écosystèmes plus vastes, prendre en charge l’orchestration multi-fournisseurs et offrir des gains d’efficacité qui justifient leurs prix élevés. Cette évolution n’est pas automatique, elle nécessite une sérieuse adaptation.

Le marché récompense désormais l’efficacité des ressources, le déploiement rapide, la neutralité de la plate-forme et un contrôle plus strict de l’emplacement des données. Les hyperscalers ont la portée et les outils nécessaires pour répondre à ces besoins, mais le modèle économique doit s’adapter. Cela peut se traduire par une volatilité des revenus à court terme, les entreprises dépensant différemment, mais l’opportunité à long terme est toujours là pour ceux qui évoluent rapidement.

Les conseils d’administration et les dirigeants de ces entreprises doivent être lucides sur ce pivot. Les entreprises les plus tournées vers l’avenir adoptent déjà des modèles d’infrastructure diversifiés et optimisés pour l’IA. Si les hyperscalers n’évoluent pas avec elles, elles devront prendre en charge des charges de travail héritées tandis que des cas d’utilisation de l’IA à forte croissance se développeront ailleurs.

Pour réussir, il faut faire partie d’un écosystème fédéré, et non essayer de le dominer. Ce changement est déjà en cours. Plus vite il sera adopté, plus grandes seront les opportunités.

Principaux enseignements pour les dirigeants

  • L’IA agentique ne stimulera pas la croissance des hyperscalers : Les dirigeants des fournisseurs de cloud devraient tempérer les attentes de revenus de l’IA agentique, car sa conception distribuée réduit la demande de ressources de calcul centralisées.
  • L’IA distribuée réduit la dépendance à l’égard de l’infrastructure centralisée : Les DSI doivent reconnaître que les systèmes d’IA agentique s’exécutent efficacement sur une infrastructure standard ou hybride, diminuant ainsi la dépendance à l’égard des services de cloud public à grande échelle.
  • Les infrastructures hybrides et régionales gagnent du terrain : Les entreprises disposent d’options de déploiement plus rentables, souveraines et flexibles qui s’alignent mieux sur l’IA agentique, ce qui fait de la diversification au-delà des hyperscalers une priorité stratégique.
  • Les stratégies multi-fournisseurs deviennent la norme : Les décideurs devraient concevoir des systèmes d’IA pour qu’ils fonctionnent sur plusieurs plates-formes, ce qui leur permet de faire preuve d’agilité, de contrôler les coûts et de réduire le verrouillage des fournisseurs.
  • Les coûts du cloud obligent à repenser la stratégie d’IA : Les directeurs financiers et les directeurs techniques devraient réévaluer leurs engagements en matière de cloud public, car les charges de travail d’IA deviennent coûteuses et imprévisibles, poussant les entreprises vers une infrastructure détenue, louée ou gérée.
  • Les hyperscalers doivent s’orienter vers l’interopérabilité : Pour rester pertinentes, les grandes plateformes de cloud devraient remanier leurs offres pour prendre en charge les déploiements hybrides et modulaires plutôt que de rivaliser en tant que hubs d’IA centraux.

Alexander Procter

avril 30, 2025

11 Min