L’adoption de l’IA genrée remodèle la stratégie cloud en raison de la complexité des architectures hybrides.
À l’heure actuelle, l’IA générative oblige à repenser la stratégie cloud au plus haut niveau. C’est plus qu’un outil supplémentaire. Elle est fondamentalement différente, très expérimentale, gourmande en ressources et largement imprévisible. Cela signifie que les prévisions habituelles de dépenses dans le cloud que vous connaissez ? Elles ne tiendront probablement pas. Si vous déployez l’IA générique dans une configuration de cloud public classique, vous verrez rapidement les coûts s’accumuler sur le calcul, le stockage et le trafic réseau.
Juan Orlandini, directeur technique pour l’Amérique du Nord chez Insight, a parfaitement résumé la situation : « Si vous exécutez de l’IA générique dans le cloud public, les coûts s’additionnent rapidement ». Et il n’exagère pas. Chaque appel d’IA, chaque transfert de données et chaque tâche de traitement déclenche une tarification qui évolue bien plus rapidement que la plupart des applications traditionnelles. Il se peut que vos équipes testent un modèle aujourd’hui et le transposent demain, sans avoir une vision claire du retour sur investissement.
Bastien Aerni, vice-président de la société d’infrastructure technologique GTT, souligne que les DSI se trouvent dans une situation difficile. Ils ne savent pas toujours à l’avance quels projets d’IA seront couronnés de succès. Surinvestir est imprudent. Le sous-investissement tue la performance et étouffe l’expérience de l’utilisateur.
Les architectures cloud s’enchevêtrent également. Les environnements hybrides prenant en charge les systèmes existants, plusieurs fournisseurs de cloud et des piles d’IA expérimentales introduisent une complexité qui rend la maîtrise des coûts et la gouvernance plus difficiles. Ajoutez à cela la « gravité des données », où le déplacement de grands ensembles de données devient inefficace et coûteux, et vous obtenez un problème qui ne peut pas être résolu en y consacrant simplement des ressources.
Traitement des données basé sur la proximité
Lorsqu’il s’agit de performance de l’IAl’emplacement a de l’importance, bien plus que la plupart des dirigeants ne le pensent. En plaçant votre IA à proximité de l’endroit où les données sont générées, vous réduisez les temps de latence et les coûts. C’est la différence entre des résultats en temps réel et des systèmes décalés et inefficaces. Vous ne voulez pas que vos modèles d’IA attendent des données qui doivent voyager à l’autre bout du monde. C’est une perte de temps, d’énergie et d’argent.
Scott Gnau, responsable des plateformes de données chez InterSystems, l’a clairement exprimé : « L’IA en temps réel ne fonctionne que si vous êtes proche de la source de données. Cela est essentiel pour des applications telles que la surveillance en direct, la maintenance prédictive et les opérations sur le terrain améliorées par l’IA, qui sont toutes déjà en jeu pour les grandes entreprises.
Considérez maintenant la pression réglementaire. Si votre organisation traite des données personnelles, en particulier dans plusieurs juridictions, la proximité est une question de conformité. Boris Kolev, responsable mondial de la technologie chez JA Worldwide, dirige une ONG présente dans 115 pays. Pour lui, conserver les données au niveau local n’est pas facultatif. « Nous devons nous conformer à tout, du GDPR aux lois locales sur la protection de la jeunesse », explique-t-il. Cela signifie qu’il faut utiliser des modèles locaux, des centres de données régionaux et des systèmes conçus pour les lois sur la protection de la vie privée propres à chaque juridiction.
Lorsque les mouvements de données constituent un handicap, l’architecture doit s’adapter. De nombreuses organisations se tournent vers l’informatique Cloud et les fournisseurs de cloud régionaux. Aujourd’hui, il s’agit moins de centralisation que de contrôle et de contexte. Le traitement local vous permet de répondre aux attentes en matière de temps de réponse et aux exigences réglementaires, sans compromettre l’échelle.
Pour les dirigeants, ce changement d’architecture devrait être un élément clé de toute feuille de route en matière d’IA. Il ne s’agit pas seulement de construire des systèmes plus intelligents. Vous les construisez légalement, efficacement et en temps réel.
Les architectures flexibles permettent de réduire la dépendance vis-à-vis des fournisseurs et d’améliorer l’adaptabilité à long terme.
Le verrouillage est une menace silencieuse. Il ralentit votre équipe, augmente les coûts d’exploitation à long terme et rend difficile l’évolution de votre plateforme lorsque de meilleures technologies d’IA sont mises sur le marché. Si votre système d’IA dépend entièrement de la pile cloud d’un fournisseur, vous êtes coincé avec sa feuille de route, ses prix et ses performances, même lorsque de meilleurs outils sont disponibles ailleurs.
Juan Orlandini, directeur technique pour l’Amérique du Nord chez Insight, recommande de créer des couches d’abstraction, des éléments logiciels qui rendent vos applications indépendantes de toute infrastructure spécifique. Cela vous donne la liberté de changer de backend d’IA sans avoir à reconstruire des systèmes entiers. Il s’agit d’une hygiène d’infrastructure de base que trop d’entreprises ignorent jusqu’à ce qu’il soit trop tard.
Bastien Aerni, de GTT, partage la même idée. Son équipe se concentre sur des plateformes très performantes qui peuvent s’adapter rapidement aux nouvelles technologies de l’IA, sans se soucier des obstacles à la compatibilité. Il s’agit de rester agile. Il s’agit de se préparer à utiliser ce qui fonctionne le mieux, dès que c’est disponible.
Boris Kolev, responsable mondial de la technologie chez JA Worldwide, adopte une approche fondée sur son expérience de la gestion des systèmes technologiques dans le cadre de budgets changeants. Son organisation s’appuie d’abord sur des outils à code source ouvert et n’utilise des plateformes sous licence qu’en cas de nécessité. Cette décision est motivée non seulement par le coût, mais aussi par le contrôle. Les logiciels libres assurent la portabilité de l’architecture, et les petits fournisseurs offrent une personnalisation que les grandes entreprises ne peuvent que difficilement égaler.
Scott Gnau, responsable des plates-formes de données chez InterSystems, insiste sur ce point : « Nous nous en tenons à des normes ouvertes et à des architectures interchangeables. » Il s’agit d’une démarche délibérée visant à préserver la flexibilité. Lorsque votre environnement repose sur des composants interchangeables, vous n’êtes pas enfermé dans des systèmes obsolètes. Vous pouvez bouger, vous adapter, évoluer et continuer à le faire sans interruption.
Pour les cadres dirigeants, cela signifie qu’il faut définir des normes architecturales claires au niveau de la direction. Investissez dans l’interopérabilité. Donner la priorité aux cadres ouverts. Préparez l’architecture pour le changement. Cela permet à votre stratégie d’IA d’être prête pour l’avenir et ouvre la voie à de meilleures performances et à une réduction des coûts à long terme.
Une gouvernance et un suivi financiers dédiés sont essentiels pour contrôler les coûts imprévisibles de l’IA.
L’IA ne suit pas le comportement traditionnel en matière de coûts. Elle évolue de manière inégale. Elle connaît des pics imprévisibles. Et elle dépasse souvent les limites des budgets informatiques classiques. Pour les directeurs financiers et les directeurs informatiques, il s’agit d’un avertissement. Si vous traitez l’IA comme n’importe quelle autre technologie, vous allez être surpris, et pas dans le bon sens.
Juan Orlandini d’Insight le souligne clairement. « Les projets d’IA sont souvent cloisonnés », déclare-t-il. « Les organisations doivent appliquer la même discipline à l’IA qu’aux charges de travail traditionnelles. Cela signifie une visibilité totale sur les modèles d’utilisation, les structures de coûts et les déclencheurs de mise à l’échelle dès le premier jour. Une discipline financière comme FinOps doit évoluer pour répondre à la vitesse et à l’incertitude des opérations d’IA.
Boris Kolev de JA Worldwide en est un exemple direct. Son équipe surveille activement les lectures par minute et la latence, indicateurs de l’intensité de l’utilisation d’un modèle. Lorsque l’utilisation dépasse les seuils, ils activent un processus d’arrêt manuel, une sorte d’interrupteur d’arrêt, pour éviter les dépassements surprises. C’est une méthode tactique et efficace. À long terme, M. Kolev souhaite que le processus soit automatisé, idéalement en intégrant des couches décisionnelles d’IA.
Bastien Aerni en rajoute une couche : une mauvaise gouvernance des données aggrave la situation. « Déplacer des données d’un point A à un point B peut s’avérer coûteux, en particulier sur les clouds publics, explique-t-il. Et souvent, les données déplacées n’ont même pas de valeur. Les données de mauvaise qualité gonflent les coûts de stockage sans améliorer les résultats en matière d’intelligence artificielle. En d’autres termes, le manque de visibilité aggrave l’impact financier.
Pour les responsables de haut niveau, cela implique de revoir la manière dont les budgets sont gérés pour les projets technologiques. Les systèmes d’IA ont besoin de garde-fous clairs, d’un suivi en temps réel et de contrôles automatisés permettant de limiter les utilisations inutiles. L’innovation ne peut s’étendre que si les coûts restent mesurables et corrigeables. Sans contrôles financiers qui évoluent aussi vite que votre IA, vous ne vous contentez pas d’exploiter des systèmes coûteux, vous les exploitez à l’aveuglette.
Des données propres et contrôlées sont essentielles pour garantir la performance et la rentabilité.
L’IA générative a besoin d’un apport constant de données. Mais toutes les données ne sont pas utiles. Lorsque les entreprises introduisent des données de mauvaise qualité ou non pertinentes dans les flux de travail de l’IA, il en résulte des modèles inefficaces et des frais généraux inutiles. Il ne s’agit pas seulement d’un problème d’ingénierie, mais aussi d’un problème commercial. Vous obtenez des factures de cloud plus élevées, des performances de modèle plus lentes et des résultats plus faibles.
Bastien Aerni, vice-président de GTT, le dit clairement : de nombreuses organisations « accumulent des données qui sont à peine utilisables ». Le coût de cette erreur augmente rapidement. Lorsque les équipes déplacent ces données vers des systèmes de cloud public pour les traiter, les frais de stockage et de transmission augmentent, quelle que soit la valeur réelle des données. En l’absence d’une solide gouvernance des données, les entreprises finissent par payer pour traiter des données numériques encombrantes.
Du point de vue de la direction, les attentes doivent être claires dans tous les services : savoir quelles données existent, où elles se trouvent et s’il vaut la peine de les conserver ou de les traiter. Cela nécessite plus qu’une simple gestion d’inventaire, mais un modèle de gouvernance directement lié aux cas d’utilisation de l’entreprise et aux objectifs de l’IA. Des données propres conduisent à des modèles plus utiles. Des pipelines gouvernés permettent de réduire le gaspillage et d’améliorer le contrôle.
La direction devrait revoir les politiques existantes en matière de données et pousser les équipes à définir leurs cadres de valeur des données. Si les données n’augmentent pas les capacités de vos systèmes d’IA, elles peuvent les dégrader ou, au minimum, gaspiller de l’argent. L’attribution de la propriété et de la responsabilité de la préparation des données peut avoir un impact direct sur l’efficacité opérationnelle et la performance globale.
La plupart des entreprises n’en sont qu’aux premières étapes de l’intégration de l’IA.
Malgré le battage médiatique, la plupart des entreprises apprennent encore à utiliser l’IA générative. Les dirigeants commencent par des projets pilotes contrôlés, comme la synthèse de documents, les outils de transcription et les chatbots internes. Ces systèmes sont isolés, légers et permettent aux équipes d’expérimenter sans perturber les opérations de base. Pour l’instant, il s’agit d’un choix stratégique et non d’une lacune technique.
Scott Gnau, responsable des plates-formes de données chez InterSystems, a fait cette observation après avoir travaillé avec des entreprises de tous secteurs : « Je n’ai pas encore vu beaucoup de déploiements à grande échelle. La plupart sont encore à l’état de projet pilote ou de mise en œuvre précoce. Il ne s’agit pas d’échecs. Ils font partie d’une approche délibérée de la part de DSI expérimentés qui veulent éviter les paris prématurés.
Des entreprises comme JA Worldwide montrent déjà comment rendre utile l’IA à un stade précoce. Boris Kolev, leur responsable mondial de la technologie, pilote une IA de type « pitch master » qui donne aux étudiants un retour sur leurs présentations, en analysant le ton, la posture et le contenu. Il s’agit d’une méthode ciblée, axée sur les objectifs et contrôlée.
Une autre tendance consiste à intégrer l’IA à l’infrastructure existante par le biais d’API ou à injecter des stratégies de génération augmentée par récupération (RAG) dans les flux de travail existants. Cela permet d’éviter de démanteler des systèmes qui fonctionnent encore tout en donnant de nouvelles capacités à des plateformes obsolètes. C’est efficace et cela permet aux équipes de valider clairement le retour sur investissement avant de prendre des mesures plus importantes.
Pour les cadres supérieurs, c’est le signe d’une approche mature. La bonne décision n’est pas de se précipiter pour passer à l’échelle supérieure, mais de commencer là où les coûts et les risques sont les plus faibles, de prouver la valeur et de se développer à partir de là. L’adoption de l’IA va s’accélérer, mais seulement si les premières étapes sont gérées avec précision et alignement.
Les architectures agiles et évolutives sont essentielles
L’IA générative progresse plus rapidement que la plupart des systèmes d’entreprise. De nouveaux modèles, outils et méthodes apparaissent constamment. Certains rendent les architectures existantes inefficaces. D’autres introduisent de nouvelles capacités qui exigent une adaptation structurelle. Si votre infrastructure est fixée à une feuille de route statique, vous atteindrez rapidement des limites opérationnelles et financières.
Juan Orlandini, directeur technique d’Insight pour l’Amérique du Nord, ne mâche pas ses mots : « Un nouvel outil peut être dix fois meilleur demain. Ce rythme d’amélioration signifie que le système que vous avez optimisé il y a un an pourrait déjà être dépassé. La solution n’est pas de réviser constamment. Il s’agit de construire avec souplesse dès le départ, ce qui permet à vos équipes d’évoluer rapidement sans avoir à recommencer à chaque fois qu’une amélioration apparaît.
Bastien Aerni, vice-président de GTT, renchérit sur ce point. « Il ne suffit plus d’avoir un plan informatique sur trois ans », déclare-t-il. L’IA pousse les décisions d’infrastructure à devenir plus courtes, plus itératives et totalement alignées sur les feuilles de route des produits et des données. Ce qui compte, c’est votre capacité à évoluer, à la demande et à la vitesse.
Cela nécessite une modularité dans la façon dont les systèmes sont assemblés. Cela signifie qu’il faut choisir des plates-formes et des cadres qui supportent les mises à jour sans effets d’entraînement. Il ne s’agit pas d’être téméraire, mais d’être prêt. L’IA n’attend pas les cycles de publication traditionnels ou les routines de gouvernance informatique.
Pour les dirigeants, le signal est clair. La flexibilité stratégique doit devenir un élément central de votre processus de prise de décision en matière d’infrastructure. Cela signifie qu’il faut prévoir un budget pour l’adaptabilité, revoir les architectures plus souvent et permettre aux équipes interfonctionnelles de pivoter sans délai. Les entreprises qui construisent pour le changement continu seront celles qui créeront et captureront de la valeur à mesure que l’IA remodèlera tous les secteurs.
Réflexions finales
L’IA générative est un changement structurel dans la façon dont les entreprises modernes fonctionnent, dépensent et évoluent. Elle remet en question les hypothèses héritées concernant le cloud, le contrôle des coûts et l’architecture. Pour les décideurs, il ne s’agit pas d’une transformation facultative, mais de la prochaine phase de la compétitivité.
Les entreprises qui gagnent rapidement ne sont pas nécessairement les plus grandes ou les plus rapides. Elles sont les mieux préparées à s’adapter. Elles construisent des systèmes modulaires, conçoivent la proximité, résistent au verrouillage des fournisseurs et alignent la gouvernance financière sur le rythme de l’IA. Elles ne sont pas enfermées dans des calendriers fixes ou des piles rigides, elles sont conçues pour le mouvement.
En tant que dirigeant, votre rôle consiste désormais à prendre des décisions stratégiques qui n’obligent pas à faire des compromis entre vitesse et contrôle. L’IA de la génération exige une infrastructure qui évolue avec l’entreprise, et non après elle. Cela signifie qu’il faut établir des principes clairs en matière de flexibilité, de qualité des données, de conformité et de contrôle des coûts au sein de vos équipes de direction.