Communiquer sur la valeur commerciale stratégique du multicloud

Le multicloud n’est plus optionnel. La plupart des moyennes et grandes entreprises fonctionnent déjà sur plusieurs plateformes cloud, qu’elles l’aientqu’elles l’aient prévu ou non. La question n’est donc plus « Devons-nous opter pour le multicloud ? ». Il s’agit plutôt de savoir comment faire du multicloud un avantage concurrentiel.

Cela commence par la clarté de votre vision. Si vous dirigez l’informatique, vous devez être en mesure d’expliquer, en une page ou moins, comment les investissements dans le multicloud sont directement liés aux résultats de l’entreprise, à la rapidité, au contrôle des coûts, à la réduction des risques et à l’innovation. Oubliez les diapositives. Dites simplement aux gens : voici comment le multicloud réduit les coûts, va plus vite, évite le verrouillage des fournisseurs et nous donne une marge de manœuvre pour évoluer avec moins d’obstacles. Ce récit a besoin de chiffres. Montrez comment le temps de fonctionnement s’est amélioré. Montrez comment le multicloud vous a épargné les chocs tarifaires. Prouvez votre point de vue.

Jon Alexander, SVP of Product in Cloud Technology chez Akamai, l’a bien dit : « L’IA accélère cette fracture, en automatisant les configurations et en prédisant les besoins en infrastructure de manière à donner aux entreprises natives du multicloud un avantage croissant. » Il a raison. Il ne s’agit plus seulement d’infrastructure. Il s’agit de savoir quelle avance vos concurrents prennent parce qu’ils utilisent déjà l’IA pour rendre le multicloud plus efficace.

Nous avons vu ce qui se passe lorsque les entreprises misent trop sur un seul écosystème. Sharad Kumar, entrepreneur et investisseur expérimenté, a cité les retombées de l’affaire Broadcom-VMware comme un avertissement : les entreprises qui s’en remettent à un seul fournisseur de cloud sont très exposées lorsque les conditions de cette relation changent soudainement. Qu’il s’agisse des prix, des capacités ou de l’orientation stratégique, vous ne voulez pas que tous vos actifs critiques soient à la merci de la prochaine décision d’un partenaire.

Le multicloud est la voie à suivre pour éviter d’être enfermé. Mais il n’ajoute de la valeur que si les dirigeants en parlent de la bonne manière, avec des objectifs proactifs et des mesures orientées vers l’entreprise. Si votre équipe ne comprend pas à quoi ressemble le succès, elle ne le construira pas.

Aligner les stratégies multicloud sur les initiatives d’IA générative (genAI).

Votre stratégie cloud est probablement antérieure à la vague actuelle d’IA générative. C’est très bien, mais elle a maintenant besoin d’une mise à jour. L’IA générative introduit de nouvelles exigences en matière de puissance de calcul, d’accès aux données et de diversité des modèles pour lesquelles votre architecture cloud existante n’a probablement jamais été conçue.

Si vous voulez que votre organisation innove avec la genAI, le multicloud n’est pas seulement utile, il est essentiel. Il permet aux équipes d’accéder à des outils d’IA spécialisés qui ne sont pas toujours disponibles dans un seul écosystème, et il permet une expérimentation plus rapide à travers différents modèles. Nandakumar Sivaraman, SVP et architecte en chef des données d’entreprise chez Bridgenext, l’a clairement exprimé : « L’IA/ML introduit de nouveaux moteurs pour l’adoption du multicloud » en donnant aux organisations l’accès à divers modèles de fondation et à des capacités de données spécifiques à chaque région.

La clé est de lier cette opportunité technique à l’impact sur l’entreprise. Cela signifie qu’il faut poser les bonnes questions : Quel est l’intérêt d’utiliser OpenAI via Azure ou Google Vertex AI ? Comment pouvons-nous construire plus vite ou mieux si nous ne sommes pas enfermés dans une seule solution ?

Michael Ameling, Chief Product Officer de SAP Business Technology Platform, ajoute à cela une directive très claire : « Tous les futurs responsables informatiques doivent réfléchir à la manière dont ils vont exploiter les nouvelles technologies, en particulier la genAI, pour stimuler l’innovation et créer un impact durable. » Il souligne le changement d’état d’esprit dont le leadership a besoin. Il ne s’agit plus de gérer l’infrastructure, mais de concevoir des environnements qui permettent à vos équipes de créer des produits transformateurs.

Les dirigeants doivent également garder un œil sur les stratégies zéro ETL et les intégrations sans code/à code bas qui émergent des acteurs SaaS étroitement alignés sur les fournisseurs de cloud. Ces intégrations éliminent les frictions et révèlent des opportunités qui n’étaient pas visibles il y a un an. Tout retard dans l’adaptation de votre plan multicloud à la genAI est un retard dans l’innovation commerciale.

Optimisez la mise en réseau multicloud sécurisée et performante.

Beaucoup d’entreprises se retrouvent en multicloud par accident, par des fusions, des acquisitions, des déploiements de cloud menés par des départements. C’est une bonne chose, mais travailler avec plusieurs plateformes sans une stratégie de mise en réseau claire entraîne rapidement des problèmes. Une latence médiocre, des politiques de sécurité incohérentes, des performances imprévisibles, tout cela s’additionne.

L’internet public n’est pas fait pour des communications sécurisées et performantes entre environnements cloud. Avec l’évolution des architectures multicloud, la priorité donnée aux interconnexions privées et directes n’est plus un luxe. C’est fondamental. Ces connexions évitent les sauts inutiles sur le web public, réduisent la latence, diminuent l’exposition aux menaces externes et améliorent la performance des services de bout en bout.

Bratin Saha, directeur des produits et de la technologie chez DigitalOcean, l’a bien compris : « La plupart des entreprises utilisent des environnements multiclouds, mais la capacité à interconnecter ces environnements de manière transparente et sécurisée reste un défi de taille. » Il souligne le soutien croissant des fournisseurs de cloud qui proposent désormais des solutions d’interconnexion cross-cloud natives, AWS Direct Connect, Azure ExpressRoute, Google Cloud Interconnect. Ces solutions sont conçues pour les entreprises qui privilégient la rapidité et la sécurité sans recourir à des solutions de contournement coûteuses.

Si vous exécutez des charges de travail sérieuses, des systèmes de transaction en temps réel, l’entraînement de modèles d’IA, la réplication de données entre les plateformes, alors la performance et la résilience de votre réseau cloud-to-cloud doivent être réglées. Les dirigeants doivent évaluer non seulement la bande passante brute, mais aussi les principes de conception du réseau : redondance, cryptage, segmentation. Il ne s’agit pas de choses à rafistoler plus tard. Il s’agit d’éléments essentiels pour assurer le bon fonctionnement des opérations lorsque cela est nécessaire.

Lorsque des pannes surviennent ou que le débit diminue, personne ne blâme la couche de virtualisation, mais plutôt les dirigeants qui ont adopté une stratégie d’infrastructure déficiente. Prenez le temps de résoudre les problèmes de performance et de sécuriser la connectivité entre les environnements. Vous réduirez ainsi les délais de réponse aux incidents et renforcerez directement la prestation de services.

Normaliser les politiques d’identité et de sécurité dans tous les clouds

La sécurité devient plus complexe à partir du moment où vous travaillez sur plusieurs clouds. Chaque environnement dispose de son propre système de gestion des identités, de ses propres politiques d’accès et de ses propres paramètres de chiffrement. C’est une recette pour les lacunes, les erreurs humaines, les permissions désynchronisées et les détections manquées.

La centralisation de la gestion des identités et des accès est une évolution. Une couche unifiée pour tous les fournisseurs apporte de la clarté. Elle apporte le contrôle. Et elle permet à votre organisation de rester alignée sur ce que les utilisateurs et les systèmes peuvent, ou ne peuvent pas, faire dans les déploiements cloud et hybrides. Toute autre méthode ajoute des frictions et crée des maux de tête en matière d’audit.

Jimmy Mesta, cofondateur et directeur technique de RAD Security, l’a dit directement : « Sans identité fédérée, télémétrie unifiée et application de politiques en temps réel, vous volez à l’aveuglette. » Et il a raison. Vous ne pouvez pas appliquer des modèles de confiance zéro, répondre aux menaces ou respecter la conformité si votre visibilité est fragmentée ou si vos contrôles sont mal reliés entre eux.

Cela devient un problème encore plus important lorsque vos équipes de développement poussent des apps à toute vitesse, que vos équipes de données entraînent des modèles à travers les zones et que vos équipes d’exploitation gèrent des environnements d’exécution dans plusieurs clouds. Tout le monde a besoin d’un accès sécurisé. Personne ne veut que la sécurité ralentisse la livraison. C’est là que l’automatisation est utile. Automatisez les politiques de moindre privilège sur toutes les plateformes. Mettez en place des flux de détection et de réponse aux incidents centralisés qui fonctionnent en temps réel et ne s’interrompent pas d’une plateforme à l’autre.

Pour les dirigeants, la conclusion est la suivante : si vous voulez développer l’innovation sans augmenter les risques, l’identité et la sécurité doivent être unifiées. Pas seulement surveillées, mais contrôlées. Pas seulement normalisées, mais automatisées. C’est ce qui protège la propriété intellectuelle, les données et la réputation.

Placez stratégiquement les charges de travail pour équilibrer les performances, la conformité et les coûts.

Le multicloud n’apporte une réelle valeur que lorsque les charges de travail sont placées délibérément. Chaque charge de travail, qu’il s’agisse d’un système interne, d’une application orientée client ou d’un pipeline de formation à l’IA, a des exigences uniques. La performance, le coût, la conformité, la proximité des utilisateurs ou des partenaires et la portabilité de la charge de travail sont autant d’éléments qui influent sur l’endroit où elle doit s’exécuter.

Le paysage du cloud comprend désormais des milliers de types d’instances. AWS propose à lui seul plus de 850 variantes EC2. Azure et Google Cloud suivent le mouvement avec des combinaisons étendues ancrées dans les besoins de calcul, de mémoire et de matériel spécialisé. Lorsque vous considérez également des options telles que les instances réservées ou ponctuelles, l’informatique sans serveur et les déploiements en périphérie, il est clair que le maintien de ce menu chaotique nécessite une évaluation structurée.

Ne laissez pas les décisions de placement aux seuls ingénieurs qui optimisent en fonction de la commodité ou des modèles historiques. Définissez des critères clairs. Incluez des indicateurs clés tels que la tolérance à la latence, les lois sur la résidence des données, les exigences d’utilisation de pointe par rapport aux exigences de base et les niveaux de communication entre les services. Un placement non structuré entraîne des goulets d’étranglement au niveau des performances, une explosion des coûts ou, pire encore, des violations de la conformité.

Avishai Sharlin, président de la division produits et réseaux chez Amdocs, explique pourquoi cela est important : « Les fonctions de périphérie réduisent la latence et prennent en charge les mises à jour en temps réel et basées sur la localisation. » Il s’agit là de facteurs importants pour les télécommunications, les médias, l’IoT et les services financiers, où la réactivité est un impératif commercial.

Les dirigeants ont besoin de visibilité sur l’endroit où les applications fonctionnent et pourquoi. Une charge de travail peut bénéficier aujourd’hui de régions optimisées par le GPU pour l’inférence de l’IA, et demain, elle pourrait avoir besoin d’être déplacée pour rester conforme aux nouvelles lois sur les données dans une région spécifique. La conteneurisation, les couches d’abstraction et les plateformes agnostiques au cloud rendent ce type de flexibilité réaliste, lorsqu’il est planifié correctement.

Le placement professionnel n’est pas une question de matériel. C’est un choix d’architecture d’entreprise. Veillez à le traiter comme tel.

Renforcer la gouvernance des données pour l’intégration de la GenAI

La gouvernance des données n’est plus optionnelle, surtout pas dans un environnement multicloud où convergent les grands modèles de langage privés (LLM), les agents d’IA et les piles de données d’entreprise. L’IA ne génère pas de valeur commerciale sans données. Et les données n’apportent pas cette valeur si elles ne sont pas correctement gouvernées, classées, sécurisées et accessibles sur toutes les plateformes.

Les organisations qui font bien les choses ne se contentent pas de mettre en place des listes de contrôle d’accès. Elles construisent des cadres qui définissent qui peut utiliser quelles données, combien de temps elles sont conservées, le niveau de sensibilité et les conditions de partage entre les clouds. Elles appliquent des contrôles continus avec une visibilité claire sur les équipes qui développent, forment et déploient des modèles d’IA.

Bart Koek, directeur technique de terrain pour la région EMEA chez Immuta, a souligné l’importance d’une approche mesurable : « Suivez les indicateurs de performance clés tels que le pourcentage de données couvertes par les politiques d’accès, la réduction des incidents de violation de données et l’amélioration de l’accessibilité des données pour les utilisateurs autorisés. » Il ne s’agit pas de mesures théoriques. Ils montrent la maîtrise des risques, l’alignement réglementaire et l’accélération de la vitesse de développement de l’IA.

Du côté de la sécurité, Tim Morris, conseiller en chef pour la sécurité chez Tanium, est clair : sans visibilité continue et en temps réel de votre parc informatique, il est prématuré de parler de « préparation à l’IA ». Il conseille d’examiner à la fois comment les données sont utilisées et pourquoi. Les métadonnées contextuelles, le comportement des utilisateurs et l’emplacement du stockage sont autant de facteurs qui entrent en ligne de compte dans les modèles de gouvernance basés sur les risques qui s’adaptent à votre environnement.

Si vous exécutez l’IA à travers le multicloud, des pratiques de sécurité des données paresseuses ou statiques vous ralentiront ou vous exposeront à des conséquences réglementaires, parfois les deux. Une couche de gouvernance dynamique et intégrée permet à vos équipes d’agir rapidement tout en gardant le contrôle des données qui alimentent les capacités futures de votre entreprise.

Accélérer l’agilité architecturale et la modernisation des applications

Les systèmes existants ne se sont pas brisés du jour au lendemain, mais ils constituent aujourd’hui l’un des plus grands obstacles à la vitesse et à l’innovation dans l’informatique d’entreprise. Et ils ne s’accommodent pas bien du multicloud. Si votre entreprise souhaite réellement opérer sur plusieurs clouds, vous devez moderniser vos applications et votre architecture pour vous adapter au rythme du changement.

L’architecture agile ne consiste pas à tout réécrire d’un coup. Il s’agit de concevoir des systèmes capables d’évoluer. Cela signifie qu’il faut donner la priorité aux architectures basées sur les composants, à la signalisation des fonctionnalités, à l’observabilité dès le départ et à l’adoption de pipelines de livraison continue. La GenAI peut soutenir ce changement. Utilisez-la pour accélérer les tests, automatiser les tâches de refactoring et rationaliser la migration des plateformes. Si vous abordez encore la modernisation des applications comme une migration par lots ou un exercice de nettoyage de la dette technologique, vous êtes déjà en retard.

Vikram Murali, vice-président de la modernisation des applications et de l’automatisation informatique chez IBM, souligne clairement ce déséquilibre : « Alors que les entreprises adoptent rapidement l’IA pour le développement, la gestion opérationnelle est à la traîne dans le SDLC, le devops, l’ITSM et les opérations informatiques. » Voilà le problème. La plupart des entreprises poussent l’IA dans les flux de travail de développement, mais laissent les environnements opérationnels critiques bloqués sur des outils dépassés et des processus manuels. En conséquence, les déploiements ralentissent, les risques s’accumulent et les opportunités sont manquées.

Les dirigeants doivent comprendre que la modernisation n’est pas une tâche d’infrastructure, mais un catalyseur d’activité. Les applications influencent l’agilité, l’expérience client, la productivité et même la rétention des talents. Des plateformes vieillissantes avec de longs cycles de mise à jour immobilisent vos équipes. Une architecture d’application moderne leur permet d’expérimenter, d’évoluer et de construire en toute confiance.

Les fonds consacrés à la modernisation permettent d’éviter l’instabilité future. Le temps passé à aligner les équipes sur une architecture agile réduit la complexité. Il ne s’agit pas d’une mise à niveau ponctuelle, mais d’un changement de culture avec des résultats commerciaux mesurables.

Intégrer FinOps pour gérer les coûts multicloud de manière proactive.

Plus de nuages signifie plus de dépenses. Mais plus de dépenses ne doit pas signifier plus de gaspillage. FinOps, la discipline financière de gestion des dépenses de cloud en alignement avec les besoins de l’ingénierie et de l’entreprise, doit être intégrée dans les opérations multicloud.

Le multicloud introduit rapidement une complexité des coûts. Chaque plateforme mesure l’utilisation différemment, les modèles de facturation et les remises varient, et le surprovisionnement devient facile s’il n’est pas contrôlé. Un FinOps proactif signifie que la visibilité des coûts doit faire partie intégrante du processus de développement, et non pas être ajoutée après l’arrivée des factures.

Ananth Kumar, responsable FinOps chez ManageEngine, résume la situation : « L’intégration des pratiques FinOps dès le début du développement peut empêcher l’accumulation de la dette de coûts. » Il recommande des environnements de taille adéquate, des alertes basées sur l’utilisation et un marquage automatisé pendant les phases de développement et de test. Ce changement d’état d’esprit à gauche vous évite de reconstruire des projets parce que l’architecture financière n’était pas viable.

Les dirigeants doivent faire trois choses : intégrer l’observabilité des coûts dans les outils d’ingénierie, établir une responsabilité partagée entre les équipes financières et techniques, et mesurer l’utilisation du cloud non seulement en termes d’argent, mais aussi en termes de valeur fournie. Connaître les modèles d’utilisation de pointe par rapport aux modèles typiques permet d’optimiser la mise à l’échelle automatique et de s’assurer que les équipes ne budgétisent pas pour des modèles de charge théoriques.

Le multicloud n’a pas besoin d’être coûteux. Mais si vous ne le gérez pas activement, il le sera. FinOps transforme le contrôle des coûts d’une opération de nettoyage réactive en un outil de planification qui soutient directement l’innovation, l’amélioration des marges et les objectifs environnementaux tels que la réduction de la consommation et des émissions. Vous voulez ce contrôle en temps réel, pas tous les trimestres.

Adoptez l’AIops pour améliorer les opérations informatiques multicloud.

Les environnements multicloud ont ajouté des couches de complexité entre les plateformes, les ensembles d’outils et les flux de travail. La gestion des réponses aux incidents, des mesures de performance et de la fiabilité des services sans automatisation devient insoutenable. C’est là que l’AIops, les opérations informatiques pilotées par l’IA, entre en jeu. Ce n’est pas une idée du futur. Elle détermine déjà l’efficacité avec laquelle les équipes résolvent les problèmes, font évoluer les services et réduisent le bruit opérationnel.

Les plateformes AIops mettent en corrélation les alertes à travers les couches d’infrastructure, d’application et de service, réduisant ainsi les signaux redondants et faisant émerger des informations exploitables. Ce type de corrélation permet non seulement de gagner du temps, mais aussi d’éviter les pannes. Elle améliore également le respect des objectifs de niveau de service (SLO) lorsque l’observabilité de la pile complète est autrement enfouie sous des journaux cloisonnés et des événements fragmentés.

Jonathan LaCour, directeur technique de Mission, explique bien cette trajectoire : L’IAops passera de l’assistance aux opérateurs à l’action autonome. Il ne s’agit pas seulement d’un avantage en termes d’économie de main-d’œuvre, mais aussi d’une extension de la capacité stratégique. Comme le souligne M. LaCour, « les plateformes AIops deviendront de plus en plus autonomes… ce qui permettra aux ingénieurs informatiques de se concentrer sur la réflexion critique, la résolution de problèmes et l’automatisation ». Ce changement est déjà en cours dans les organisations qui donnent la priorité à la maturité de l’automatisation dans l’ensemble de leurs pipelines CI/CD et de leurs outils d’orchestration cloud.

Pour les dirigeants, l’enjeu est simple : si l’informatique fonctionne encore principalement comme une fonction de support réactive, elle n’évoluera pas avec votre ambition multicloud. Vous avez besoin de plateformes qui renforcent la cohérence, accélèrent la résolution des incidents et rendent les connaissances réutilisables. Les systèmes doivent tirer des enseignements des événements passés, prédire les modèles de défaillance connus et automatiser les actions préventives. C’est la promesse de l’AIops, et elle est alignée sur les exigences de l’infrastructure numérique moderne et distribuée.

Investissez dans des plateformes de surveillance centralisées qui prennent en charge l’AIops entre les fournisseurs. Associez-les à la configuration en tant que code, à l’orchestration de conteneurs et aux flux de travail de livraison continue. Vous obtiendrez ainsi des gains de fiabilité mesurables tout en permettant aux ingénieurs de se concentrer sur la transformation, et pas seulement sur le temps de fonctionnement.

Instaurer une culture de l’apprentissage et de la collaboration continus

À mesure que le cloud et l’IA évoluent, les compétences requises pour exploiter ces environnements changent tout aussi rapidement. Vos équipes prendront du retard si l’apprentissage continu n’est pas intégré au modèle opérationnel de votre entreprise. Il ne s’agit pas seulement de certifications techniques, mais de créer une culture où la collaboration interfonctionnelle et l’agilité des compétences sont considérées comme des compétences de base.

La combinaison du développement d’applications, de la sécurité, de l’infrastructure et des opérations financières nécessite un alignement entre les disciplines. Elle exige également que les équipes repensent leurs rôles et adoptent de nouveaux outils, y compris ceux de la GenAI. Les professionnels des opérations doivent désormais avoir une bonne compréhension de la gestion du cycle de vie des modèles, de l’intégration de la sécurité pour les LLM et des outils d’automatisation intelligents qui n’existaient pas il y a deux ans.

Anant Adya, vice-président exécutif chez Infosys Cobalt, souligne directement ce défi : « Les professionnels qui travaillent dans les opérations doivent développer un mélange de compétences techniques et analytiques en matière d’IA, notamment en apprenant les bases de l’IA, de l’apprentissage automatique et de l’apprentissage profond. » Il s’agit d’une recommandation pratique, et non théorique. Si vos équipes d’exploitation ne peuvent pas gérer les charges de travail d’IA et comprendre comment ces modèles se comportent dans des environnements de production, cela limite votre capacité à utiliser l’IA partout dans l’entreprise à l’échelle.

Les dirigeants doivent diriger en s’investissant et en rendant des comptes. Cela signifie des programmes de formation structurés, des laboratoires pratiques fréquents, des certifications et des communautés de pratique internes qui partagent rapidement les connaissances acquises. Cela signifie également que les dirigeants doivent soutenir l’expérimentation, en encourageant les personnes à tester de nouvelles méthodes, à remettre en question les hypothèses et à obtenir des résultats qui dépassent le cadre strict de leur poste.

La transformation ne vient pas seulement des outils. Elle est le fruit de personnes motivées, compétentes et alignées. Un avenir multicloud exige un apprentissage continu et une fluidité entre les équipes. Intégrez cela à votre stratégie dès maintenant, ou risquez une fragmentation opérationnelle plus tard.

Récapitulation

Le multicloud n’est pas une préférence technique, c’est une décision commerciale qui a des conséquences stratégiques. Lorsqu’il est bien fait, il améliore la résilience, débloque l’accès à des capacités d’IA spécialisées, réduit les coûts à long terme et protège contre les risques liés aux fournisseurs. Mais l’architecture seule ne garantit pas les avantages. Ce sont les décisions relatives à la gouvernance, à la culture d’équipe, aux opérations et au contrôle financier qui déterminent si le multicloud devient un avantage ou un surcoût.

En tant que dirigeant, votre rôle n’est pas de microgérer les choix en matière de cloud, mais de clarifier la valeur, la position de risque et la rapidité. Cela signifie que vous devez aligner vos équipes sur des résultats communs, financer délibérément la modernisation et instaurer une culture dans laquelle l’apprentissage continu et l’expérimentation ne sont pas seulement encouragés, mais font partie des besoins opérationnels.

Les organisations qui évolueront le plus rapidement au cours de la prochaine décennie ne seront pas celles qui dépenseront le plus, mais celles qui utiliseront la complexité de la manière la plus intelligente. Le multicloud est déjà là. La seule question est de savoir si vous le façonnez pour servir votre entreprise ou si vous réagissez simplement à ses demandes.

Alexander Procter

septembre 19, 2025

22 Min