Les entreprises réduisent leur dépendance à l’égard des hyperscalers au profit de plates-formes diversifiées, hybrides et hétérogènes.
Le cloud computing a changé la façon dont les entreprises construisent et exploitent les technologies. Des plateformes comme AWS, Microsoft Azure et Google Cloud nous ont offert une échelle et une vitesse sans précédent. Elles jouent encore un rôle important, mais ne sont plus le choix par défaut. Cette ère est en train de s’achever.
De plus en plus d’entreprises s’orientent vers des environnements mixtes, des plateformes hybrides et hétérogènes qui offrent un meilleur contrôle, une plus grande stabilité des coûts et la liberté d’innover plus rapidement. Les dirigeants commencent à se poser une question essentielle : « Pourquoi confions-nous toutes nos données, notre marge et notre flexibilité à un ou deux fournisseurs de cloud ? ».
La réponse devient évidente. Les plateformes cloud centralisées vous enferment dans leur écosystème. Vous finissez par payer plus cher pour évoluer, vous perdez de vue vos propres données et vous affaiblissez votre capacité à vous adapter rapidement. Les entreprises évoluent désormais rapidement dans la direction opposée. Elles intègrent des systèmes locaux d’abord, des plateformes qui fonctionnent sur site ou à la périphérie, avec des services cloud. Cela leur permet de contrôler les informations sensibles et d’accéder aux données en temps réel, ce que le cloud public seul ne peut pas prendre en charge efficacement.
Cette évolution est mesurable. Selon Andreessen Horowitz, les coûts excessifs du cloud ont fait perdre jusqu’à 100 milliards de dollars de valeur marchande aux entreprises publiques de logiciels. Il ne s’agit pas d’une erreur d’arrondi, mais d’un avertissement. Et lorsque 83 % des DSI déclarent vouloir rapatrier des charges de travail d’ici à 2024, contre seulement 43 % en 2020 (comme l’a constaté Barclays), il est clair que nous nous trouvons dans une transition majeure.
En résumé, si vous voulez optimiser les coûts, le contrôle et la vitesse d’innovation, vous devez diversifier votre pile. L’homogénéité est désormais un handicap. C’est la flexibilité qui l’emporte.
L’augmentation des coûts du cloud incite les entreprises à rapatrier les charges de travail.
Le cloud a été vendu comme un moyen moins coûteux et plus rapide de passer à l’échelle supérieure. Pour les nouveaux projets, c’est encore en grande partie vrai. Mais les entreprises ayant des charges de travail matures l’apprennent à leurs dépens : les coûts du cloud ne s’adaptent pas toujours bien. Dans de nombreux cas, ils ne font que grimper en flèche sans que l’on puisse en tirer un bénéfice clair.
Au fur et à mesure que les charges de travail augmentent, en particulier les tâches d’IA gourmandes en données, vos factures de calcul, de bande passante et de stockage augmentent également. Et il ne s’agit pas seulement du matériel que vous louez, mais de chaque paquet réseau, de chaque octet de rétention, de chaque fois que votre équipe exécute des analyses. Tout cela s’accumule rapidement, avec très peu d’avertissement. La prévisibilité financière dans le cloud ? C’est un mythe pour la plupart des opérations à grande échelle.
C’est pourquoi les entreprises rapatrient les charges de travail sur site ou passent à des plates-formes spécialisées. Elles recherchent la maîtrise des coûts, de meilleures performances et un retour sur investissement plus clair. Les systèmes d’intelligence artificielle, en particulier, sont gourmands en ressources informatiques et exigent un accès rapide et local aux données. Les coûts du cloud ne s’alignent pas bien sur la façon dont ces systèmes fonctionnent au fil du temps.
En réalité, la marge est plus importante que jamais. Si le cloud ajoute de la friction à la réalisation du retour sur investissement, vous réduisez vos dépenses. C’est ce que font les dirigeants avisés. Selon un rapport récent, toujours d’Andreessen Horowitz, la dépendance à l’égard des plates-formes cloud a contribué à des baisses massives de la valeur marchande. L’enquête Barclays CIO confirme la tendance : les entreprises réduisent de manière agressive leur empreinte sur le cloud.
Pour rester compétitives, les entreprises ont besoin d’une infrastructure qui apporte de la valeur ajoutée, et non des frictions. Et parfois, cela signifie qu’il faut rapatrier les charges de travail.
Le contrôle et la souveraineté des données sont des motivations majeures pour s’éloigner des hyperscalers.
L’un des problèmes majeurs des hyperscalers est le peu de contrôle que vous avez sur vos propres données. À grande échelle, cela devient une limitation sérieuse. Pour les industries à forte conformité, la finance, la santé, le gouvernement, c’est inacceptable. Lorsque votre entreprise dépend de l’accès en temps réel, de la portabilité et de la visibilité totale sur les opérations de données, le fait de s’appuyer sur une infrastructure tierce commence à vous gêner.
Le problème est la structure qui entoure l’accès, la manière dont vous déplacez les données, l’endroit où elles vivent et les risques qui en découlent. Avec les hyperscalers, l’enfermement dans le fournisseur est réel. Vous êtes souvent enfermé dans les API, les services, les structures de facturation et les limites d’extraction d’un fournisseur donné. Il est donc difficile d’innover, de replatformer ou même de passer à un meilleur système interne. L’agilité en pâtit.
Dans les régions où les lois sur la lois sur la protection de la vie privéecomme l’UE avec le GDPR, la pression pour localiser les données est encore plus forte. Les entreprises ont besoin d’un contrôle clair sur la manière dont les données sont stockées et sur l’endroit où elles sont stockées. C’est pourquoi le passage à des architectures « local-first » gagne du terrain. Ces systèmes conservent les données sensibles à l’intérieur du périmètre de sécurité existant de l’organisation, réduisant ainsi l’exposition juridique et la complexité opérationnelle.
Autre facteur important : Les systèmes d’IA qui nécessitent un accès aux données à faible latence sont plus performants lorsque les données n’ont pas besoin d’être transférées vers un cloud distant pour être traitées. Les plateformes d’IA locales résolvent ce problème grâce à des architectures qui fonctionnent au sein des réseaux de l’entreprise et accèdent directement aux ensembles de données internes. Le traitement reste ainsi rapide et conforme. Pour les entreprises qui ont besoin de rapidité, de sécurité et de souveraineté, il s’agit d’une voie d’avenir évidente.
Les dirigeants qui souhaitent intégrer l’intelligence dans les services, en toute sécurité et à grande échelle, doivent privilégier les plates-formes où la propriété des données est claire et native. Ce n’est pas le cas avec l’accord hyperscaler moyen.
L’adoption d’architectures d’infrastructure hybrides et locales s’accélère
La stratégie informatique des entreprises est en train de changer. De plus en plus d’organisations s’éloignent des environnements cloud monolithiques et s’orientent vers des systèmes hybrides qui combinent des plateformes sur site, locales d’abord et cloud dans une pile personnalisable. Ces systèmes sont plus modulaires et adaptables. Ils sont conçus pour des charges de travail en constante évolution, en particulier l’IA.
Les DSI et les directeurs techniques déploient de plus en plus d’infrastructures qui donnent de la flexibilité à leurs équipes. Vous conservez ce qui fonctionne dans le cloud, l’informatique élastique, les sauvegardes de stockage, l’accès global, et vous le combinez avec ce qui est nécessaire dans les systèmes locaux d’abord, la vitesse, la sécurité et le contrôle complet des données. Ce modèle fonctionne parce qu’il réduit les dépendances tout en augmentant les performances pour des cas d’utilisation spécifiques.
Nous constatons que cela se traduit par des outils concrets. GitHub, par exemple, a réussi à fusionner la technologie locale d’abord avec la collaboration dans le cloud. Les développeurs peuvent travailler efficacement avec une latence minimale tout en se synchronisant avec les services partagés. En ce qui concerne l’IA, des plateformes telles que Meta’s LLaMA et DeepSeek montrent que des modèles puissants peuvent fonctionner localement sans dépendre d’une infrastructure hyperscalaire. Cela permet de réduire les coûts et de renforcer simultanément le contrôle.
Cette évolution n’est pas théorique. Elle est visible dans les changements architecturaux de tous les secteurs. Les équipes d’ingénieurs construisent des types de données répliquées sans conflit (CRDT), conçoivent des outils de traitement local et en périphérie, et alignent l’infrastructure directement sur les cas d’utilisation stratégiques tels que la modélisation prédictive, l’automatisation et les modèles de langage privés.
Le passage à des plateformes hybrides adaptatives permet à votre entreprise de rester agile, de gérer les coûts et de prendre en charge des opérations sécurisées en matière d’IA et de données. C’est une reconstruction pratique d’un état d’esprit dépassé de cloud-first.
La redéfinition de l’architecture informatique est essentielle pour la préparation à l’IA et l’efficacité opérationnelle globale.
Si votre infrastructure ne peut pas prendre en charge efficacement les charges de travail liées à l’IA, vous êtes déjà à la traîne. Les systèmes basés sur le Cloud traditionnels, bien qu’évolutifs, se heurtent à des limites lorsqu’il s’agit d’accès aux données en temps réel, de gestion des coûts et de performances localisées. L’IA exige plus de calcul, une exécution plus rapide, un accès à faible latence à des données sécurisées et un comportement prévisible de l’infrastructure.
Repenser votre architecture, c’est créer un environnement dans lequel les systèmes d’intelligence artificielle peuvent fonctionner sans friction. Il s’agit de donner à vos équipes les outils et les systèmes nécessaires pour déployer des applications intelligentes sans avoir à franchir des barrières de conformité ou des contraintes de coût. Les stratégies hybrides, qui combinent l’élasticité du cloud avec le traitement local-first, permettent une itération plus rapide, une meilleure confidentialité et un contrôle plus clair.
Les clouds publics sont toujours utiles lorsque l’échelle est l’objectif, par exemple pour les charges de travail élastiques, les services API, l’entreposage de données. Mais la logique de base qui alimente l’innovation se situe désormais plus près de la périphérie. Elle nécessite une architecture qui prend en charge les boucles de rétroaction entre les données et les algorithmes en temps quasi réel. L’entraînement et l’exécution de modèles d’IA dans cet environnement se traduisent par une meilleure réactivité, une réduction des coûts et une intégration plus forte avec les systèmes opérationnels.
Ce changement est stratégique. Il modifie la façon dont vous déployez les talents, les dépenses d’infrastructure et la rapidité d’adaptation. Pour les dirigeants, il s’agit d’un changement de capacité. Vous construisez un système qui permet aux équipes d’expérimenter, de mettre à l’échelle et d’expédier des outils alimentés par l’IA selon vos propres conditions. C’est ainsi que vous gagnerez en efficacité dans un environnement concurrentiel.
Le passage de monolithes cloud à des plateformes diversifiées représente une tendance importante de la transformation informatique
L’informatique d’entreprise est de moins en moins centralisée et de plus en plus flexible. Ce n’est pas un hasard. Les entreprises reconnaissent qu’une stratégie de cloud à fournisseur unique est limitée lorsque la flexibilité, la conformité et la rapidité de mise sur le marché sont importantes. Au lieu de considérer le cloud comme la plateforme principale, il devient un simple composant d’une pile d’infrastructure plus équilibrée. C’est la direction que prennent la plupart des entreprises tournées vers l’avenir.
Cette évolution implique de réévaluer le rôle des clouds. Les stratégies les plus efficaces équilibrent désormais les capacités des clouds publics avec des plateformes spécialisées et des architectures « local-first ». Cette combinaison permet aux entreprises d’avancer plus rapidement, de sécuriser les données critiques, d’optimiser les coûts et d’adapter les décisions en matière d’infrastructure aux charges de travail réelles, et non aux offres uniques des fournisseurs.
La technologie est déjà disponible. Les outils de stockage distribué, de calcul en périphérie, de déploiement de modèles privés et d’orchestration de la charge de travail sont arrivés à maturité. Associées à un contrôle économique plus rigoureux et à des attentes en matière de conformité, les organisations ont désormais la motivation et les mécanismes nécessaires pour s’affranchir des modèles centralisés.
Nous assistons à une reconfiguration à long terme de l’infrastructure numérique des entreprises. Les gagnants seront les organisations qui resteront adaptables. Si vous voulez créer des produits d’IA, protéger la souveraineté des données et maîtriser votre courbe de coûts, vous n’attendez pas. Vous remaniez. Les monolithes de cloud ont servi leur objectif, mais ils ne sont pas construits pour ce qui va suivre. Les entreprises qui construisent des plateformes diversifiées ont déjà une longueur d’avance.
Principaux enseignements pour les décideurs
- Les entreprises se diversifient au-delà des hyperscalers : Les dirigeants devraient adopter des stratégies d’infrastructure hybride et hétérogène pour obtenir plus de contrôle, améliorer la rentabilité et accroître l’agilité dans les environnements pilotés par l’IA.
- Les coûts du cloud dépassent la valeur à l’échelle : Les dirigeants doivent réévaluer les déploiements full cloud, en particulier pour les charges de travail matures ou lourdes en IA, et envisager un rapatriement vers des plateformes sur site ou spécialisées pour freiner la hausse des coûts opérationnels.
- Le contrôle des données est désormais essentiel : les chefs d’entreprise doivent donner la priorité aux architectures qui permettent la portabilité et la souveraineté des données, en particulier dans les secteurs réglementés où les limites des hyperscalers peuvent entraver la conformité et l’accès en temps réel.
- Les plateformes hybrides et locales gagnent du terrain : Les décideurs informatiques devraient intégrer des solutions locales d’abord dans leur pile pour prendre en charge les charges de travail d’IA, réduire la dépendance à l’égard des fournisseurs et améliorer les performances globales du système.
- L’IA exige une nouvelle réflexion sur l’infrastructure : Investir dans des systèmes adaptables et à faible latence est essentiel pour soutenir la préparation, la vitesse et l’innovation en matière d’IA, en particulier lorsque l’utilisation des données en temps réel et l’efficacité du calcul sont des facteurs de différenciation concurrentielle.
- Les stratégies de cloud monolithiques sont en train d’être remplacées : Les dirigeants doivent conduire la transformation vers des cadres d’infrastructure diversifiés qui permettent d’accélérer l’innovation, d’améliorer les pratiques en matière de données et de contrôler durablement les coûts dans toutes les unités opérationnelles.