Le développement de l’IA est intrinsèquement non linéaire et présente des cas limites complexes.
L’IA ne se construit pas en ligne droite. On ne se contente pas d’écrire un code, de le déboguer, de l’expédier et de passer à autre chose. Cela ne fonctionne pas de cette manière. Le processus est désordonné. Dynamique. Lorsque vous entraînez un modèle d’IA, en particulier un modèle utilisant de grands modèles de langage (LLM) ou des outils génératifs, des cas limites, des scénarios que vous n’aviez pas prévus, apparaissent un peu partout. Vos données peuvent changer. L’IA peut générer des résultats imprévisibles. Les modèles se comportent différemment en fonction des données d’entrée, du contexte et même de l’utilisation momentanée.
Ellen Brandenberger, directrice principale de la gestion des produits pour Overflow API, l’explique clairement : il y a tout simplement trop de variables. Lorsque l’IA passe de la phase pilote au déploiement réel, ces cas limites commencent à prendre de l’ampleur. Et c’est là que la plupart des équipes commencent à ressentir la pression. Cela oblige les ingénieurs à s’éloigner de l’état d’esprit traditionnel des logiciels. Vous gérez un système qui évolue constamment, qui apprend, qui fait des choix indépendants dans le cadre de contraintes de données et qui, parfois, se comporte d’une manière que votre suite de tests n’avait pas prévue.
Les dirigeants doivent comprendre qu’il ne s’agit pas d’une situation habituelle. Si vous vous attendez à des calendriers de déploiement prévisibles et à des délais linéaires, vous préparez votre équipe à l’échec. Ce type de développement est itératif et chaotique, mais avec le bon état d’esprit, il conduit à des percées. Vous pouvez vous prémunir contre l’inconnu en concevant des processus souples, en prévoyant des imprévus et en investissant dans des systèmes d’essai et de contrôle continus.
L’itération continue et les stratégies axées sur la performance sont essentielles pour les modèles d’IA.
L’IA n’est pas une solution unique. Elle a besoin d’itération. Un perfectionnement constant. Ce n’est pas parce que les modèles sont cassés, c’est parce que le paysage est en train de changer. Les clients attendent désormais de la rapidité. Des réponses instantanées, une interaction sans friction. L’IA a placé la barre plus haut. Et si votre système est à la traîne, même légèrement, vous perdez la confiance, l’élan et la conversion.
Ellen Brandenberger met les choses au point. Ses équipes discutent avec d’autres acteurs du secteur qui se posent tous la même question : « Comment faire mieux et plus vite, sans sacrifier l’intégrité ou la sécurité des données ? » C’est la bonne question. L’itération n’est plus une question technique. C’est une question stratégique. Vous optimisez trois choses : les performances, la sécurité et l’expérience utilisateur. Et ces éléments ne sont pas toujours parfaitement synchronisés. Les dirigeants doivent les équilibrer en temps réel.
L’itération comprend également l’expérimentation, les architectures basées sur des agents, l’équilibrage dynamique de la charge, les systèmes d’étranglement pour gérer les pics de trafic, qui sont désormais des nécessités et non plus des caractéristiques. Chaque ajustement se répercute sur les performances de votre modèle en production. L’objectif n’est pas la perfection dès le premier jour. Il s’agit de s’améliorer sans cesse. C’est ce qui fait l’impact.
Si vous dirigez depuis le sommet, reconnaissez que l’itération nécessite des budgets et des calendriers conçus pour soutenir l’amélioration continue. Cela signifie qu’il faut recruter les bonnes personnes, allouer des ressources informatiques et mettre à jour les indicateurs clés de performance pour refléter les cycles d’apprentissage, et pas seulement les résultats. C’est là que les entreprises traditionnelles sont à la traîne : elles établissent leur budget en fonction de la livraison, et non de l’accélération. Les entreprises qui considèrent l’itération comme une capacité essentielle obtiendront de meilleurs résultats à grande échelle. À chaque fois.
Il est nécessaire de repenser l’infrastructure
Vous ne pouvez pas faire évoluer l’IA avec des systèmes dorsaux obsolètes. Vous vous heurterez rapidement à des limites : latence, bande passante, compatibilité. Les charges de travail d’IA consomment du stockage, de la bande passante et des cycles de calcul, en particulier lorsque vous avez affaire à des données non structurées qui ne s’intègrent pas parfaitement dans les tables ou les systèmes traditionnels. Il ne s’agit pas d’un problème futur. Il est immédiat. La plupart des entreprises ont construit leur infrastructure pour gérer une logique commerciale structurée. Aujourd’hui, l’IA pousse ces systèmes dans leurs derniers retranchements.
Maureen Makes, vice-présidente de l’ingénierie chez Recursion, en est consciente. Son équipe déploie de nombreux outils, des LLM, des modèles d’images fondamentaux et le Phenom-Beta de NVIDIA, pour accélérer la mise sur le marché des médicaments. Mais le véritable défi se trouve en coulisses : leur infrastructure ne pouvait pas suivre le rythme de création des données. La bande passante de la fibre optique a atteint son plafond. La solution ? Une configuration hybride utilisant Google Cloud et BioHive, une plateforme de supercalcul haute performance. Cette combinaison a permis d’éliminer les goulets d’étranglement en matière de performances et de réduire la latence entre les régions. Il s’agit d’aligner la pile sur la charge de travail, il n’y a plus d’environnement unique.
Ce que les dirigeants doivent savoir, c’est que ce type de migration nécessite une planification et des investissements importants. Vous ne pouvez pas vous adapter à l’IA. Selon Databricks, seules 22 % des entreprises pensent que leur architecture peut prendre en charge les charges de travail liées à l’IA sans modifications majeures. En d’autres termes, quatre entreprises sur cinq sont à la traîne. Et l’écart se creuse.
Il y a aussi la pression réglementaire. Gartner estime que d’ici 2025, 75 % des données personnelles dans le monde seront couvertes par des lois sur la confidentialité des données. Si votre infrastructure n’est pas sensibilisée à la réglementation, au géofencing, à l’audit et au cryptage, vous prenez des risques inutiles.
La localisation des données au niveau régional est essentielle pour équilibrer la conformité, les coûts et les performances.
Les données ne sont pas mobiles sans conséquences. L’endroit où elles sont stockées, l’endroit où elles sont traitées et la manière dont elles sont déplacées ont une incidence sur les coûts, la vitesse et la légalité. Si vos outils d’IA sont formés sur des données circulant à travers les continents, vous accumulez les risques juridiques et les maux de tête opérationnels. La localisation des données est une exigence fondamentale qui a un impact sur la livraison des produits et la confiance des clients.
L’approche de Recursion montre comment cela se passe dans le monde réel. Ils ont combiné Google Cloud et BioHive pour minimiser les transferts de données sur de longues distances et réduire la dépendance à l’égard du routage transfrontalier. Pourquoi ? Parce que déplacer des ensembles de données d’une juridiction à l’autre, en particulier en Europe avec le GDPR, n’est pas seulement lourd d’un point de vue logistique, c’est aussi risqué d’un point de vue juridique. Les équipes de la C-suite devraient suivre l’origine des données, leur utilisation et la manière dont elles s’alignent sur les exigences de souveraineté.
De nombreuses organisations répartissent désormais les charges de travail entre les différentes régions du cloud. Par exemple, elles veillent à ce que les données des utilisateurs européens restent en Europe, tandis que les données américaines restent dans les juridictions américaines. Cela permet de limiter les sorties inutiles, de respecter les lois locales et de maintenir la puissance de calcul à proximité de la source, ce qui se traduit par des temps de cycle plus courts et des coûts de déplacement des données moins élevés.
Pour les opérateurs mondiaux, la mise en place d’un tel système est un multiplicateur de performance. Elle réduit les temps de latence, permet des calculs à haut débit et, plus important encore, évite aux équipes juridiques d’avoir à se défendre. Traitez la localisation des données comme un pilier stratégique. Structurez votre infrastructure autour d’elle. C’est là que la vitesse, la conformité et les coûts se croisent. Et si vous alignez ces trois éléments, vous serez en position de force pour gagner.
La qualité des données l’emporte désormais sur leur quantité pour obtenir des résultats efficaces en matière d’IA
Il est devenu évident que la multiplication des données n’est pas toujours la solution. Les modèles antérieurs reposaient sur l’hypothèse que l’échelle seule pouvait générer de la valeur : plus il y a d’entrées, meilleurs sont les résultats. Cette approche est dépassée. Aujourd’hui, les équipes apprennent que ce sont les données propres, pertinentes et bien structurées qui améliorent les performances. Le volume sans précision ne fait que créer plus de bruit, plus de travail et plus de frustration pour les équipes d’ingénierie et de produits.
Don Woodlock, responsable des solutions globales pour les soins de santé chez InterSystems, a souligné l’importance de l’affinement des données pendant l’apprentissage du modèle. Il s’agit de rendre les données utilisables. Pour cela, il faut les filtrer, les étiqueter et les aligner sur les objectifs du système que vous construisez. Dans le secteur de la santé ou de la finance, où la précision n’est pas négociable, vous ne pouvez pas vous permettre de faire évoluer les modèles sur des ensembles de données brutes ou peu fidèles.
Les dirigeants doivent considérer qu’il s’agit d’un jeu à long terme. Les organisations qui se concentrent sur la formation de modèles d’IA plus petits, plus rapides et spécifiques à une tâche, comme DeepSeeksont plus performantes que celles qui continuent d’utiliser de grands systèmes génériques alimentés par des ensembles de données massifs mais bruyants. Les meilleurs résultats proviennent d’une curation stratégique des données, et non d’une collecte de données sans fin. Moins, mais mieux, c’est la victoire.
Si vous continuez à construire des pipelines axés sur la quantité plutôt que sur la qualité, prenez du recul. Selon Gartner, 30 % des projets d’IA internes échouent en raison de la mauvaise qualité des données. Deloitte abonde dans le même sens en classant l’infrastructure et la qualité des données parmi les principaux obstacles à l’adoption de l’IA. Vous ne résoudrez pas le problème de l’IA si votre ensemble de données ne peut pas soutenir la logique du système. Et vous n’avez pas besoin d’attendre un échec pour faire un changement, commencez dès maintenant avec des méthodes plus intentionnelles d’approvisionnement en données.
L’intégration transparente des données dans les modèles d’IA reste un obstacle important.
Une fois que vous avez les bonnes données, vous devez encore les rendre utilisables, et c’est là que de nombreux projets se heurtent à un mur. L’intégration est l’un des problèmes les plus difficiles à résoudre dans l’adoption de l’IA. Vous devez unifier des données provenant de différentes sources, suivre leur évolution, gérer l’accès et assurer la gouvernance, tout cela sans ralentir l’expérimentation ou l’itération des modèles. La plupart des systèmes n’ont pas été conçus pour ce type de coordination synchrone.
L’étude 2025 AI Global Survey de McKinsey montre que 70 % des leaders technologiques les plus performants ont été confrontés à des problèmes d’intégration des données dans les modèles d’IA. Il s’agit notamment de problèmes liés à la disponibilité des données, à la gouvernance et à la préparation à la formation. Et seulement 46 % des entreprises gèrent actuellement la gouvernance des données par le biais d’une structure centralisée. C’est un problème. Sans un système propre pour gérer l’accès et l’architecture, les équipes perdent en visibilité, les risques de conformité augmentent et les performances des modèles en pâtissent.
La réponse de Recursion a été d’affecter des équipes dédiées au stockage d’objets qui gèrent le cycle de vie des données, de l’acquisition à l’archivage. Cette structure permet de maintenir les performances des données à un niveau élevé, tout en réduisant les coûts et en organisant l’accès. C’est aussi une façon intelligente de séparer les données opérationnelles des pipelines de formation. Les ingénieurs peuvent se concentrer sur la construction, et non sur la recherche des bons ensembles de données ou le débogage de leur lignage.
Pour les dirigeants, il s’agit d’une décision au niveau des systèmes, l’intégration des données doit être traitée comme une capacité de base du produit. Sans elle, vous ne pourrez pas faire évoluer les modèles ou répondre aux demandes d’IA de l’entreprise. La réponse réside dans la gouvernance, l’alignement et les ressources. Donnez la priorité à l’intégration dès le début, sinon vous dépenserez plus d’argent pour réparer les choses en aval.
Des protocoles de sécurité et de conformité renforcés sont obligatoires à mesure que les volumes de données d’IA augmentent.
Les systèmes d’IA introduisent un nouveau niveau de complexité dans la sécurité. Lorsque vous augmentez la vitesse et le volume de traitement des données, en particulier dans les secteurs réglementés, vous exposez des lacunes en matière de surveillance. La vérité est que la plupart des entreprises n’en font pas assez. Plus l’IA se développe, plus les risques organisationnels augmentent. Les mauvais acteurs, les hallucinations des modèles et l’exposition non surveillée des données peuvent nuire à la marque, aux opérations et à la situation juridique.
Selon des conclusions récentes, 30 % des entreprises qui utilisent l’IA générative n’examinent qu’environ 20 % de leurs résultats d’IA. C’est un problème. Ces systèmes sont dynamiques, ils génèrent du contenu en temps réel et, sans surveillance, vous volez à l’aveuglette. Plus de données signifie plus d’exposition, en particulier dans les secteurs à fort enjeu comme la santé et la finance, où la désinformation a des conséquences réelles.
Ellen Brandenberger, directrice principale de la gestion des produits chez Overflow API, va au cœur de cette préoccupation. Elle souligne que si les consommateurs peuvent accepter des résultats subjectifs dans des domaines créatifs, les modèles qui traitent de données juridiques, médicales ou financières doivent être soumis à des exigences beaucoup plus élevées. Les directeurs techniques commencent à poser les questions difficiles : qui a accès à quelles données, et comment ces données sont-elles utilisées, stockées ou envoyées à des systèmes tiers ?
La sécurité provient ici de la gouvernance des accès, de l’auditabilité et du maintien de flux de travail fiables entre les unités opérationnelles. Les dirigeants doivent définir de manière proactive les limites du risque et déployer les contrôles nécessaires, la surveillance, les filières d’examen et les politiques de conformité, avant que la responsabilité n’entre en jeu.
Des stratégies pragmatiques et fondées sur des outils sont essentielles pour une mise à l’échelle réussie de l’IA
Le déploiement de l’IA à grande échelle ne dépend pas d’une solution magique, mais de la sélection des bons outils pour des tâches spécifiques et de l’élaboration de flux de travail capables de s’adapter rapidement. Il n’y a aucun avantage à appliquer un modèle généralisé et surdimensionné à l’ensemble de votre environnement. Cette approche augmente les coûts, ralentit l’itération et enferme les équipes dans des architectures rigides qui limitent les améliorations futures.
Maureen Makes, vice-présidente de l’ingénierie chez Recursion, a fait le choix judicieux de travailler avec plusieurs plates-formes et modèles, dont le Phenom-Beta de NVIDIA, plutôt que de s’en remettre à un système unique. Cette approche est une question d’alignement stratégique. Elle donne la priorité à ce qui a du sens pour son produit, son infrastructure et son environnement réglementaire. Il s’agit d’un état d’esprit opérationnel et ciblé.
Pour s’adapter efficacement, les responsables de l’ingénierie ont besoin de flexibilité et de la confiance nécessaire pour dépasser les contraintes héritées du passé. Cela signifie qu’il faut s’appuyer sur des outils modulaires, investir dans l’observabilité opérationnelle et concevoir des systèmes qui peuvent être reconstruits sans temps d’arrêt en cas de besoin. Vous ne pouvez pas vous permettre de longs cycles de retour d’information ou des feuilles de route basées sur un engagement excessif envers des outils précoces.
Blackstone a prévu plus de 1 000 milliards de dollars d’investissements dans l’infrastructure des centres de données aux États-Unis au cours des cinq prochaines années. Ce chiffre doublera au niveau mondial. Les entreprises qui s’y prennent tôt, celles qui alignent l’architecture, les outils et la vitesse opérationnelle, débloqueront cette capacité plus rapidement que les autres. Il n’est pas nécessaire de rechercher la perfection. Mais vous avez besoin d’une exécution pragmatique. Choisissez des outils qui fonctionnent, construisez des systèmes flexibles et supprimez les frictions liées à l’itération. C’est ainsi que vous pourrez évoluer en temps réel.
Récapitulation
L’IA n’attend pas. Elle progresse rapidement et si votre infrastructure, vos équipes et vos dirigeants n’évoluent pas en même temps qu’elle, vous serez dans l’impasse, tant sur le plan technique que stratégique. Les plus grandes lacunes ne sont pas liées au talent ou à l’ambition. Il s’agit de l’exécution, de la définition des priorités et de la vision de la direction.
La mise à l’échelle de l’IA ne consiste pas à en faire plus. Il s’agit de bien faire les choses. Cela signifie qu’il faut investir dans des données propres et bien gérées plutôt que dans des volumes bruyants. Cela signifie qu’il faut repenser l’infrastructure en fonction des performances et de la conformité, et non de la commodité. Et cela signifie qu’il faut donner à vos équipes d’ingénieurs les outils, l’autonomie et les processus nécessaires pour s’adapter rapidement aux environnements réels.
Vous n’avez pas besoin de suivre la tendance. Vous devez construire une organisation qui soutient intrinsèquement l’itération, la résilience et la rapidité. Les entreprises qui y parviendront ne se contenteront pas de fournir une meilleure IA, elles définiront le rythme du marché.
Comme toujours, l’exécution est importante. Allégez vos systèmes, accélérez vos équipes et affinez vos priorités.