Les directeurs informatiques sont en train de passer d’une dépendance exclusive à l’égard du cloud public.
Nous assistons à un changement fondamental dans la façon dont les entreprises envisagent l’infrastructure cloud pour l’IA. Au début, les charges de travail d’IA étaient imprévisibles, évoluaient rapidement et étaient expérimentales. Le cloud public avait du sens. Il offrait de la flexibilité et vous pouviez faire évoluer le calcul en quelques clics. Mais au fur et à mesure que ces stratégies d’IA se transforment en opérations stables à long terme, les dirigeants prennent du recul et posent une question simple : obtenons-nous le meilleur contrôle, les meilleures performances et la meilleure gestion des coûts ?
La réponse est de plus en plus souvent négative. Les DSI des entreprises équilibrent désormais leur utilisation du cloud public avec le cloud privé et les installations sur site. Il ne s’agit pas d’un retrait du cloud. Il s’agit d’une allocation intelligente des ressources. Les charges de travail d’IA telles que l’apprentissage et l’ajustement des modèles ont besoin d’une puissance GPU constante et soutenue. Si vous connaissez vos modèles d’utilisation, les exécuter sur votre propre matériel ou avec un fournisseur de cloud privé vous donne plus de contrôle et des coûts prévisibles.
La sécurité et la protection de la vie privée sont également des éléments déclencheurs importants. Les projets d’IA impliquent souvent des données sensibles et propriétaires. De nombreux DSI déclarent qu’ils ne peuvent pas prendre le risque de stocker ou de traiter ce type d’informations sur une infrastructure qu’ils ne contrôlent pas. Il ne s’agit pas seulement d’atténuer les risques, mais aussi de garantir la conformité et l’assurance de l’entreprise.
Selon une enquête 2023 Prove AI menée auprès de 1 000 dirigeants d’entreprise à travers les États-Unis et le Canada, 67 % d’entre eux prévoient de retirer certaines données d’IA du cloud public au cours des 12 prochains mois. Il ne s’agit pas d’un battage médiatique, mais simplement du résultat d’une meilleure stratégie et d’une compréhension plus claire des exigences en matière de charge de travail.
Greg Whalen, directeur technique de Prove AI, a bien résumé la situation : lorsque les charges de travail d’IA ne sont plus seulement expérimentales, l’économie et le contrôle de l’infrastructure privée l’emportent. C’est le genre de décision qui aligne les directeurs financiers et les directeurs de la sécurité informatique dans la salle du conseil d’administration.
Les entreprises privilégient de plus en plus l’infrastructure GPU interne
Une fois que vous connaissez les besoins de votre équipe d’IA, l’achat de vos propres GPU cesse d’être un luxe et devient une décision commerciale. Louer du temps de GPU dans le cloud chaque fois que vous affinez ou entraînez à nouveau un modèle peut être rapide, mais ce n’est pas efficace à l’échelle. Lorsque les charges de travail sont constantes, il est rentable de posséder le matériel.
Les équipes d’entreprise qui affinent de grands modèles de langage ou effectuent une évaluation continue des modèles n’ont pas seulement besoin de GPU de manière occasionnelle. Elles en ont besoin à la demande, pendant de longues heures, sur des cycles étendus. Dans ces cas-là, vous avez des besoins de calcul soutenus. C’est là que l’équipement interne tue l’économie de la location d’un cloud public.
L’idée que les GPU internes restent inactifs circule. Mais la réalité est différente. Si votre feuille de route en matière d’IA est claire, il n’y a pratiquement pas de temps mort. La demande est là, que ce soit pour l’entraînement, l’ajustement de l’inférence du modèle ou la génération de données synthétiques. Et ce sont des processus qui bénéficient d’un accès prévisible au matériel, sans temps d’attente, sans tarification variable, avec un contrôle total sur l’équilibrage de la charge.
Greg Whalen, de Prove AI, souligne précisément ce problème. Il explique que la plupart des organisations avec lesquelles il travaille ne laissent pas les GPU inutilisés. Bien au contraire. Elles finissent par trouver des tâches plus productives à exécuter. Il ne s’agit pas d’un coût, mais d’un atout qui apporte une valeur continue lorsqu’il est bien planifié et déployé.
Pour les décideurs de niveau C, il s’agit d’une question de planification des investissements. Les économies s’accumulent au fil du temps. Vous échangez une commodité à court terme contre un contrôle à long terme et des avantages en termes de coûts. L’IA devenant un élément central du développement des produits, de l’assistance à la clientèle et de la croissance du chiffre d’affaires, il s’agit d’un compromis qui vaut la peine d’être fait.
Les dépenses en matière de cloud privé dépassent les investissements en matière de cloud public
Le cloud privé n’est pas nouveau, mais la manière dont les entreprises y investissent a changé. Les chiffres sont sans appel : alors que les budgets consacrés au cloud public continuent d’augmenter, les dépenses en matière de cloud privé progressent plus rapidement, et ce n’est pas une coïncidence. Les entreprises ne se contentent pas d’augmenter leur budget, elles repositionnent leur stratégie d’infrastructure de base pour répondre aux exigences du déploiement à long terme de l’IA.
Selon GTT Communications, le pourcentage d’organisations prévoyant de dépenser plus de 10 millions de dollars pour des solutions de cloud privé a bondi de 36 % en 2023 à une projection de 54 % en 2025. En revanche, le même seuil de dépenses pour le cloud public ne devrait croître que de 12 % au cours de la même période.
Les charges de travail d’IA introduisent un niveau varié de risques et d’exigences de conformité que les plateformes traditionnelles de SaaS ou de cloud public ne sont pas en mesure de satisfaire. plateformes de cloud public ne peuvent pas toujours répondre de manière adéquate. Le nombre de réglementations relatives à la confidentialité des données augmentant dans tous les secteurs, des services financiers aux soins de santé en passant par la défense, les dirigeants ne peuvent plus reporter la responsabilité de l’endroit et de la manière dont leurs données circulent. Les clouds privés et hybrides offrent plus qu’une simple flexibilité, ils offrent une clarté en matière de responsabilité.
Cette tendance à l’investissement concerne la mise en place d’une infrastructure capable de répondre aux exigences de mise à l’échelle de l’IA tout en gardant une longueur d’avance sur les cadres réglementaires. Et pour les systèmes gérant des opérations critiques ou des données sensorielles, avoir ce niveau supplémentaire de contrôle sur l’architecture est plus que stratégique, c’est nécessaire.
Les besoins en matière de sécurité, de conformité et de charge de travail spécifique sont à l’origine de l’adoption de ces technologies.
L’infrastructure d’entreprise est passée de solutions généralisées à des déploiements sélectifs. L’IA n’est pas une simple charge de travail, elle implique des couches de données confidentielles, une logique itérative et une surveillance réglementaire. Les entreprises qui opéraient autrefois principalement dans le cloud public évoluent. Elles conçoivent une infrastructure qui choisit ce qui s’exécute où, en fonction de la fonctionnalité, du risque et de la logique commerciale.
La sécurité et la conformité sont ici la priorité, pas les fonctionnalités, ni la commodité. Lorsque les systèmes d’IA touchent à la propriété intellectuelle, aux données financières, aux identifiants personnels ou à tout autre actif soumis à une réglementation stricte, les équipes internes ont besoin d’une visibilité totale sur l’architecture. Les entreprises résolvent ce problème en établissant des architectures multicloud et hybrides, où le cloud public sert des composants à haut volume ou configurables, et les environnements privés ou sur site exécutent des charges de travail centrales et sensibles.
Bastien Aerni, vice-président de la stratégie et de l’adoption des technologies chez GTT, a mis en évidence ce changement précis. Il a souligné qu’à mesure que les systèmes d’IA interagissent de plus en plus avec des informations critiques et confidentielles, les entreprises sont obligées de repenser l’ensemble de leur approche architecturale. La question est devenue une préoccupation au niveau du conseil d’administration : qu’est-ce qui a sa place dans le cloud public, qu’est-ce qui doit rester privé, et comment structurez-vous vos systèmes pour refléter cela ?
Il s’agit de placer la bonne charge de travail au bon endroit. Les entreprises qui ne prennent pas ces décisions à temps sont celles qui finissent par être confrontées à des problèmes opérationnels, juridiques et de gouvernance lorsque la complexité s’accroît. Les décideurs qui cherchent à assurer la pérennité de leur infrastructure alignent déjà les charges de travail sur leurs profils de risque et de conformité.
Le cloud public reste essentiel pour une mise à l’échelle et une expérimentation rapides
Le cloud public joue toujours un rôle clé dans la stratégie d’IA des entreprises. Il est flexible, facile à déployer et doté de services à la demande qui permettent un développement précoce et une itération rapide sans investissement initial important. Pour les équipes qui mènent des recherches, établissent des preuves de concept ou testent sous pression de nouveaux modèles d’IA, le cloud public reste la voie la plus rapide.
Mais le paysage change une fois que l’IA passe de l’exploration à l’exécution soutenue. Lorsque le temps de fonctionnement, le contrôle des coûts et la sensibilité des données commencent à dominer l’équation, les dirigeants transfèrent les charges de travail dans des environnements plus contrôlés. L’infrastructure du cloud public est optimisée pour l’élasticité et la variété des fonctionnalités, des qualités qui comptent le plus dans la phase de test, pas nécessairement dans les opérations de production à long terme.
Ce changement découle des schémas d’utilisation et du profil de risque. Les DSI qui optimisaient autrefois les outils cloud disponibles se concentrent désormais sur la stabilité et la prévisibilité. Les ensembles d’outils qui étaient autrefois des actifs critiques sont aujourd’hui moins utilisés, non pas parce qu’ils ont perdu leur avantage technique, mais parce que les modèles de production et la gouvernance d’entreprise exigent des plates-formes avec des garde-fous plus serrés.
Bastien Aerni, vice-président de GTT, a clairement mis les choses en perspective. Il a fait remarquer que les conversations avec les DSI ont changé. Il y a cinq ans, les fonctionnalités du cloud public étaient un facteur de décision clé. Aujourd’hui, ces mêmes DSI accordent plus d’importance à la façon dont l’infrastructure soutient une production durable et évolutive avec moins de surprises.
Le cloud public n’est pas en train de disparaître. Il évolue pour devenir un outil puissant pour des parties spécifiques d’une architecture d’IA plus large. Sa valeur demeure, mais de manière sélective, là où elle est stratégiquement justifiée.
L’abandon du cloud public est sélectif et reflète une stratégie plus large
Les entreprises n’abandonnent pas le cloud public. Ce qu’elles font, c’est optimiser, décider charge de travail par charge de travail ce qui appartient où, pourquoi et pour combien de temps. Il s’agit de logique commerciale, de résultats de performance et de modélisation des risques à long terme. Les entreprises réaffectent leurs charges de travail d’IA les plus importantes et les plus sensibles à des plateformes qui leur offrent un meilleur contrôle, tout en continuant à utiliser l’infrastructure du cloud public pour ce qu’elle a encore de meilleur : l’évolutivité et la rapidité.
C’est un signe clair de maturité stratégique. La gestion de l’IA à grande échelle nécessite une architecture d’infrastructure délibérée. Les entreprises atteignent le point où l’IA n’est plus un bras d’innovation isolé, elle est intégrée dans l’ensemble des opérations. Cela signifie qu’il faut placer les charges de travail en fonction de variables réelles : latence, sécurité, gouvernance et finances.
Danilo Kirschner, directeur général chez Zoi North America, a expliqué cette transition en termes simples : nous assistons à un passage de l’enthousiasme précoce pour le cloud à une planification structurée et spécifique à la charge de travail. Il ne s’agit pas d’abandonner complètement le cloud public. Il s’agit de se déplacer correctement, en déployant les ressources là où elles créent le plus de valeur avec le moins de friction possible.
Zac Engler, Chief AI Officer chez C4 Technology Services, a renforcé ce point. Selon lui, les entreprises ne procèdent pas à un retrait spectaculaire. Elles réaffectent discrètement les charges de travail critiques en les éloignant de l’infrastructure publique. Pourquoi ? Parce que la confiance, le coût et le contrôle sont les questions qui dominent actuellement la prise de décision au niveau du conseil d’administration.
Cela marque un tournant. Les équipes dirigeantes n’adoptent plus par défaut un modèle « public d’abord ». Elles naviguent désormais dans l’architecture cloud avec la même précision que celle qu’elles appliquent aux portefeuilles financiers. C’est vers cela que se dirige le marché, vers une sélectivité stratégique et non vers une adoption généralisée.
Principaux enseignements pour les dirigeants
- Les directeurs des systèmes d’information se détournent de l’état d’esprit » cloud-first » : Les dirigeants devraient rééquilibrer les stratégies cloud à mesure que les charges de travail d’IA matures stimulent la demande d’une plus grande maîtrise des coûts, de la propriété des données et d’une sécurité qui n’est pas toujours réalisable dans les environnements de cloud public.
- Les GPU internes améliorent la rentabilité à grande échelle : Les décideurs ayant des besoins stables et continus en matière de formation à l’IA devraient envisager d’investir dans une infrastructure GPU privée afin de réduire les coûts de calcul à long terme et d’améliorer les performances de la charge de travail.
- Les dépenses en matière de cloud privé s’accélèrent : Allouez les budgets informatiques en tenant compte de la croissance du cloud privé, les entreprises qui prévoient > 10M$ d’investissements dans le cloud privé augmentent plus rapidement que celles qui dépensent dans le cloud public, signalant ainsi un pivot stratégique.
- La sécurité et la conformité alimentent l’adoption de l’hybride : Pour répondre aux exigences en matière de risque et de réglementation, les dirigeants devraient déployer des infrastructures hybrides et multicloud qui séparent les charges de travail sensibles de l’IA des environnements publics.
- Le cloud public est encore le moteur des premières innovations : Utilisez le cloud public pour l’expérimentation de l’IA et la mise à l’échelle rapide, mais déplacez les charges de travail de production nécessitant une stabilité, une gouvernance ou une prévisibilité des ressources vers des configurations privées.
- Le rapatriement sélectif exige des décisions au niveau de la charge de travail : Évitez les stratégies globales, évaluez les caractéristiques de la charge de travail (par exemple, sensibilité aux coûts, confidentialité des données) afin de déterminer l’environnement d’hébergement optimal pour chaque actif d’IA.