Kubernetes, en tant que plateforme fondamentale, fait face à de nouvelles exigences avec l’edge computing.

Kubernetes est devenu l’épine dorsale de l’infrastructure numérique moderne. Au cours de la dernière décennie, il a remodelé la façon dont les organisations déploient, gèrent et mettent à l’échelle les applications dans le cloud. Sa plus grande force réside dans l’automatisation de la gestion des conteneurs et la mise à l’échelle des charges de travail avec précision et fiabilité. Dans le cloud, cela fonctionne à merveille car les ressources informatiques sont effectivement illimitées. Cependant, ce monde est en train de changer rapidement.

L’informatique périphérique redéfinit les limites opérationnelles. Les applications s’exécutent désormais beaucoup plus près de l’endroit où les données sont générées, sur des appareils locaux, dans des véhicules, sur des sites de production ou même à l’intérieur de villes intelligentes. Cet environnement est plus exigeant. Contrairement à un centre de données dans le cloud, les environnements en périphérie fonctionnent avec un CPU, une mémoire et une bande passante limités. La latence doit être minimale et les décisions de mise à l’échelle doivent être prises en temps réel. Kubernetes, dans sa forme traditionnelle, n’est pas entièrement équipé pour gérer ce changement sans adaptation.

Pour les dirigeants, c’est le signe d’une transformation plus large de la stratégie informatique. Les mêmes systèmes qui alimentent les applications cloud évolutives doivent désormais fonctionner intelligemment dans des infrastructures plus petites et décentralisées. Ce changement n’affecte pas seulement l’ingénierie. Il a un impact sur les stratégies budgétaires, les calendriers d’investissement technologique et la planification à long terme de l’infrastructure numérique. Les entreprises qui optimisent Kubernetes pour les déploiements en périphérie seront celles qui suivront le rythme des marchés en temps réel, qu’il s’agisse de véhicules autonomes, de soins de santé à distance ou de fabrication intelligente.

L’informatique en périphérie ne remplace pas le cloud, elle en élargit les frontières. À mesure que de plus en plus de services se déplacent vers la périphérie, le défi n’est pas la puissance informatique brute, mais la gestion intelligente de ressources limitées. Les entreprises qui adaptent aujourd’hui leurs stratégies de mise à l’échelle seront à la pointe de la performance, de la fiabilité et du contrôle des coûts au cours de la décennie à venir.

Limites de l’autoscaler horizontal de pods (HPA) par défaut dans les scénarios de périphérie

L’Horizontal Pod Autoscaler, ou HPA, est le mécanisme de mise à l’échelle intégré à Kubernetes. Il ajuste automatiquement le nombre d’instances d’applications (ou « pods ») en cours d’exécution en fonction de l’utilisation actuelle. Pour les environnements cloud, c’est un outil efficace. Mais en périphérie, il n’offre pas toujours la réactivité et la précision requises.

HPA fonctionne selon une formule proportionnelle fixe :
desiredReplicas = currentReplicas × currentMetricValue / desiredMetricValue
Cette formule suppose que la demande de mise à l’échelle croît proportionnellement à l’utilisation du CPU ou de la mémoire. Cette hypothèse n’est pas valable dans les environnements périphériques, où les charges de travail peuvent augmenter de manière imprévisible en raison d’événements externes, par exemple un pic soudain de connexions au niveau d’une passerelle IoT locale ou une explosion des données vidéo. HPA réagit à ces événements trop lentement ou trop agressivement, car il ne répond qu’après que les métriques ont déjà changé. Il en résulte une oscillation : trop de répliques à un moment donné, trop peu le lendemain.

Dans le même temps, l’extension de HPA avec des mesures personnalisées, telles que la latence ou le taux de requête, nécessite des systèmes supplémentaires tels que Prometheus, des API personnalisées et des adaptateurs de service. Ces dépendances fonctionnent bien dans les configurations cloud, mais créent une surcharge inutile dans les nœuds périphériques à bande passante limitée et à ressources restreintes. Plus la complexité est grande, plus le coût opérationnel et le risque d’instabilité sont élevés.

Pour les dirigeants, il est essentiel de comprendre ces limites pour prendre de meilleures décisions en matière de déploiement. S’appuyer sur l’APH dans les scénarios de périphérie peut conduire à des inefficacités qui réduisent les marges de performance et gonflent les dépenses d’exploitation. Cela limite également la flexibilité, ce qui est crucial lorsque les expériences des utilisateurs dépendent d’une réactivité de l’ordre de la milliseconde.

Les entreprises qui investissent dans des déploiements en périphérie doivent dépasser les limites de la mise à l’échelle réactive. La clé réside dans des systèmes adaptatifs et prédictifs capables de détecter les tendances de la charge de travail et de procéder à une mise à l’échelle préventive. Les dirigeants devraient y voir une opportunité de faire évoluer leurs stratégies cloud vers des systèmes intelligents et distribués, à la fois efficaces et dont les coûts sont maîtrisés.

L’informatique de pointe récompensera ceux qui conçoivent pour anticiper, et non pour réagir. Kubernetes a posé les bases. L’étape suivante consiste à lui donner une longueur d’avance.

Experts Okoone
PARLONS-EN !

Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.

Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.

Veuillez saisir une adresse email professionnelle valide.

Le besoin critique d’une mise à l’échelle proactive et adaptée au contexte dans les charges de travail en périphérie

Les charges de travail en périphérie sont dynamiques et imprévisibles. Contrairement aux déploiements cloud traditionnels avec des modèles de charge réguliers et gérables, les systèmes edge connaissent de fortes fluctuations dans le flux de données, l’activité des utilisateurs et la complexité des événements. Les applications exécutées au plus près de la source, telles que les passerelles IoT, les moteurs d’analyse en direct ou les nœuds de traitement AR/VR, exigent une faible latence, une grande élasticité et une fiabilité constante. Pour répondre à ces exigences, il faut des systèmes de mise à l’échelle qui agissent avant que les seuils de capacité ne soient dépassés, et non après.

L’approche standard de mise à l’échelle basée sur l’utilisation de l’unité centrale ou de la mémoire ne permet pas d’appréhender le comportement réel des charges de travail en périphérie. Par exemple, une augmentation soudaine de la demande de réseau ou de latence peut ne pas être enregistrée à temps par les mesures basées sur le CPU. Ces scénarios requièrent des autoscalers qui combinent la connaissance de l’environnement en temps réel avec des capacités prédictives. Les systèmes doivent mesurer simultanément plusieurs signaux, notamment la latence, la profondeur de la file d’attente, les taux de requête et les temps de démarrage, afin de prendre des décisions plus rapides et plus intelligentes en matière de mise à l’échelle.

Pour les dirigeants, la signification commerciale est directe : la mise à l’échelle en fonction du contexte réduit le risque d’interruptions de service et d’insatisfaction des utilisateurs. Une mauvaise adaptation conduit à des expériences incohérentes pour les utilisateurs et à une perte de confiance de la part des consommateurs, des problèmes qui ont un fort impact financier. La mise à l’échelle proactive, quant à elle, garantit que les systèmes s’adaptent à temps pour maintenir les performances dans les moments critiques. Il ne s’agit pas seulement d’une considération technologique, mais d’une stratégie de protection de la marque et des revenus.

Pour garder une longueur d’avance, les dirigeants doivent considérer l’innovation en matière de mise à l’échelle automatique comme faisant partie de la modernisation à long terme de l’infrastructure. L’intégration de la connaissance du contexte dans le comportement du système permet de transformer les opérations de lutte contre les incendies en une gestion planifiée et prédictive. Cette capacité transforme l’informatique à la périphérie en un avantage concurrentiel, en réduisant les temps d’arrêt, en maintenant la vitesse et en fidélisant les clients.

Introduction et avantages du Custom Pod Autoscaler (CPA)

Le Custom Pod Autoscaler (CPA) apporte une flexibilité et une précision que les modèles de mise à l’échelle fixes ne peuvent pas fournir. Il a été développé pour surmonter les limites du Kubernetes Horizontal Pod Autoscaler en permettant aux développeurs de définir leur propre logique de mise à l’échelle par le biais de scripts Python. Cette personnalisation sépare la collecte des mesures des décisions de mise à l’échelle, offrant aux ingénieurs la possibilité d’appliquer simultanément plusieurs indicateurs de performance, la marge de manœuvre du processeur, les seuils de latence, la charge des requêtes et les indicateurs clés de performance (KPI) personnalisés.

Contrairement au HPA traditionnel, qui réagit uniquement aux mesures d’utilisation après coup, le CPA permet au système d’anticiper les besoins futurs en ressources. Cette approche proactive permet de maintenir la stabilité lorsque les charges de travail augmentent et d’éviter le gaspillage d’une mise à l’échelle trop agressive. La conception du CPA impose des réductions d’échelle progressives, des augmentations d’échelle stables et une modération intelligente basée sur les conditions en temps réel. Il en résulte des performances système plus fluides, en particulier dans les environnements où les ressources informatiques, la mémoire et la bande passante sont limitées.

Du point de vue des dirigeants, l’introduction de l’ACP est un catalyseur stratégique pour des opérations de pointe durables. Elle permet aux organisations d’adapter le comportement de l’infrastructure à des objectifs commerciaux spécifiques, en garantissant que les applications fonctionnent de manière prévisible, même en cas de demande variable. Ce niveau de contrôle sur la mise à l’échelle se traduit par une utilisation plus efficace des ressources, une réduction des coûts du cloud et du matériel, et une plus grande cohérence opérationnelle entre les régions.

L’ACP renforce également l’indépendance technologique. Les entreprises peuvent faire évoluer leurs stratégies de mise à l’échelle sans être limitées par des paramètres fournis par le fournisseur ou des règles de système fixes. Pour les dirigeants, cela signifie plus d’agilité pour répondre aux besoins du marché et plus d’espace pour innover avec des technologies émergentes telles que le traitement piloté par les événements ou l’inférence de l’IA à la périphérie. Les organisations qui adoptent dès maintenant des stratégies de mise à l’échelle adaptables seront les premières à fournir des services fiables à grande échelle tout en maintenant l’efficacité et les performances.

Modèle de décision composite de la CPA intégrant trois signaux fondamentaux

Le Custom Pod Autoscaler utilise un cadre décisionnel qui combine trois signaux principaux : la marge de manœuvre du processeur, la connaissance du niveau de service de la latence et la compensation du démarrage du pod. Ce modèle apporte un niveau supérieur d’intelligence et d’adaptabilité aux décisions d’autoscaling, en s’éloignant de la focalisation étroite sur les seuils de CPU. Au lieu de réagir aux niveaux d’utilisation après qu’ils aient déjà eu un impact sur les performances, CPA interprète plusieurs signaux simultanément pour s’adapter en temps réel.

Le premier élément, la marge de manœuvre de l’unité centrale, garantit que les systèmes conservent une marge de sécurité en termes de capacité de traitement, généralement entre soixante-dix et quatre-vingts pour cent d’utilisation. Cette marge permet d’absorber les augmentations temporaires de la demande sans dégradation du service. Le deuxième élément, latence SLO awareness, surveille des mesures telles que la latence du quatre-vingt-quinzième centile (p95) afin de maintenir les temps de réponse dans des limites prédéfinies, environ soixante millisecondes pour les applications interactives en périphérie. Le troisième élément, la compensation du démarrage des pods, tient compte des temps d’initialisation des conteneurs plus lents à la périphérie, où la vitesse des disques et les démarrages à froid des images peuvent retarder le déploiement. En prévoyant les augmentations de charge, le système déclenche la mise à l’échelle avant que les ressources ne soient épuisées.

Pour les équipes dirigeantes, cette approche se traduit par des avantages commerciaux mesurables. Un modèle composite minimise les temps d’arrêt et garantit une qualité de service constante, même en cas d’instabilité de la charge. Il réduit la surutilisation des ressources tout en protégeant les performances, ce qui se traduit par une rentabilité et une fiabilité accrues. Ce niveau de précision permet également d’améliorer la planification des services et la prévision des capacités, ce qui aide les dirigeants à aligner la croissance de l’infrastructure sur la demande de l’entreprise plutôt que de l’ajuster de manière réactive.

L’avantage le plus stratégique provient de la prévisibilité. Les systèmes capables d’anticiper les changements évitent les fluctuations qui engendrent des coûts opérationnels imprévisibles. Pour les organisations qui exploitent des services numériques à grande échelle ou des réseaux mondiaux, ce type d’adaptabilité en temps réel garantit la stabilité, l’évolutivité et la satisfaction des utilisateurs face aux charges de travail les plus exigeantes.

Mise en œuvre de l’ACP au moyen de cadres configurables à source ouverte

La mise en œuvre du Custom Pod Autoscaler s’appuie sur le cadre CPA open-source intégré à Kubernetes. Elle est conçue pour être flexible. Les développeurs configurent les paramètres de mise à l’échelle au moyen de fichiers YAML et de scripts Python qui définissent les sources de métriques, la logique d’évaluation et les intervalles de mise à l’échelle. Le framework s’exécute à des intervalles définis, généralement toutes les quinze secondes, en exécutant deux scripts : l’un pour collecter les métriques et l’autre pour évaluer les recommandations de mise à l’échelle. Une fois l’évaluation terminée, l’ACP demande à Kubernetes de mettre à l’échelle l’application en fonction du résultat calculé.

Cette configuration permet à l’autoscaler de rassembler plusieurs sources de données, telles que l’utilisation du CPU et les mesures de latence via Prometheus, et d’agir sur la base d’évaluations contextuelles plutôt que d’algorithmes fixes. La configuration inclut également des paramètres pour des actions de mise à l’échelle sûre et de réduction progressive de l’échelle, ce qui permet de maintenir la stabilité opérationnelle. L’intégration avec des outils de surveillance existants tels que Grafana permet aux équipes de suivre les réponses de performance et d’affiner la logique de mise à l’échelle en continu.

D’un point de vue commercial, la mise en œuvre d’un outil de mise à l’échelle configurable et open-source élimine la dépendance à long terme vis-à-vis des solutions statiques des fournisseurs. Il donne aux entreprises un contrôle direct sur la façon dont leurs systèmes s’ajustent dans les environnements de production, en particulier lorsque les compromis de performance et de coût sont critiques. Les décideurs peuvent autoriser une optimisation itérative sans introduire de frais généraux lourds ou de cycles de développement étendus, ce qui permet de réagir plus facilement aux exigences émergentes des applications.

Pour les dirigeants, l’architecture modulaire de CPA permet d’accélérer l’expérimentation et le déploiement sans sacrifier la fiabilité. Elle incarne une voie pratique vers la gestion autonome de l’infrastructure, où la mise à l’échelle est guidée par les données, transparente et alignée sur les priorités de l’entreprise. Il en résulte des systèmes qui fonctionnent efficacement, réagissent intelligemment et évoluent au fur et à mesure que de nouvelles mesures, charges de travail ou cas d’utilisation commerciale émergent.

Des preuves expérimentales démontrent la supériorité de la CPA sur la HPA.

Les tests et les évaluations ont démontré que le Custom Pod Autoscaler offre des performances plus solides et plus prévisibles que l’Horizontal Pod Autoscaler standard. Dans une série d’environnements contrôlés impliquant des charges de travail continues, irrégulières et en augmentation progressive, le CPA a surpassé le HPA en termes de stabilité, de réactivité et d’efficacité des ressources. Alors que l’HPA avait tendance à réagir de manière excessive aux changements rapides de charge, créant des fluctuations d’échelle inutiles, le CPA a maintenu des courbes d’échelle plus lisses, une utilisation cohérente des ressources et des profils de latence stables.

Lors des tests de stress, CPA a réussi à équilibrer l’utilisation de la marge de manœuvre et la réactivité en temps réel. Il a évité les dépassements de réplique lors de courtes pointes en interprétant conjointement les tendances de latence et le comportement de l’unité centrale. En conséquence, les pertes de CPU et la pression sur la mémoire ont diminué, tandis que la qualité du service est restée stable sous différents niveaux de demande. L’autoscaler a également montré une récupération plus rapide des états stables et moins de lancements de pods, améliorant ainsi la prévisibilité globale du système.

Ces résultats sont stratégiquement significatifs pour les décideurs. La réduction de l’oscillation se traduit directement par des opérations plus efficaces et une diminution des coûts d’énergie et d’infrastructure. Lorsque les systèmes évoluent de manière prévisible, les ingénieurs consacrent moins de temps au dépannage et plus de temps à l’amélioration des performances des applications. Pour les organisations qui fournissent des services sensibles au temps ou dont les revenus sont essentiels, la stabilité opérationnelle qu’offre le CPA devient un avantage financier mesurable.

Les dirigeants doivent reconnaître que l’amélioration continue de la stratégie de mise à l’échelle n’est pas seulement une question d’optimisation technique, c’est une question de force concurrentielle. La capacité à maintenir des performances constantes dans des conditions de charge imprévisibles détermine la fluidité du fonctionnement des systèmes en contact avec la clientèle. L’ACP démontre que la mise à l’échelle proactive et multi-signaux crée une confiance opérationnelle, favorisant à la fois la stabilité des performances et la viabilité des coûts à long terme.

Enseignements tirés de l’élaboration de stratégies de mise à l’échelle prédictives et multimétriques

Le développement et le test de l’ACP ont permis de tirer plusieurs leçons essentielles qui définissent les principes de la mise à l’échelle prédictive. Le premier est qu’il ne suffit pas de se fier à une seule mesure, généralement l’utilisation du processeur, pour maintenir des performances constantes. Les charges de travail en périphérie, en particulier, nécessitent une connaissance plus large de plusieurs mesures, notamment la latence, le volume de requêtes et le temps de démarrage des conteneurs. La deuxième leçon est que la mise à l’échelle prédictive, telle que l’anticipation de la charge par la compensation du démarrage des pods, réduit considérablement la volatilité et l’instabilité communes aux systèmes réactifs.

Une troisième idée concerne la valeur des stratégies de réduction d’échelle contrôlées. Les systèmes traditionnels de mise à l’échelle automatique diminuent souvent trop rapidement après une baisse de la charge, ce qui entraîne des blocages et une dégradation de l’expérience utilisateur. La méthode de réduction progressive et délibérée du CPA préserve la stabilité de la charge de travail et assure des transitions en douceur, même lorsque la demande diminue. Cette dynamique contrôlée améliore la cohérence de l’expérience utilisateur, ce qui est essentiel pour maintenir la confiance et la continuité du service.

Pour les dirigeants, ces leçons renforcent un principe important : la mise à l’échelle prédictive et multifactorielle se traduit directement par l’efficacité de l’entreprise. Les systèmes qui réagissent trop lentement ou trop agressivement risquent de perdre leur fiabilité, tandis que ceux qui utilisent des modèles prédictifs restent stables sous la pression. La stabilité signifie moins de perturbations, moins de risques opérationnels et une meilleure utilisation des capacités, ce qui a un impact sur la rentabilité et la réputation de la marque.

Cette expérience souligne également l’importance stratégique de séparer la collecte des mesures de la logique de mise à l’échelle. Au fur et à mesure que les organisations se développent, les données relatives aux performances deviennent plus détaillées. Le fait de maintenir la surveillance indépendante de la logique de mise à l’échelle garantit que les algorithmes de mise à l’échelle peuvent évoluer au fur et à mesure que la télémétrie évolue. Pour les dirigeants, cela garantit la longévité et l’adaptabilité de la technologie, réduisant ainsi la nécessité d’une réorganisation répétée de l’infrastructure à mesure que les systèmes s’étendent à l’échelle mondiale. En fin de compte, les entreprises qui adoptent des systèmes de mise à l’échelle prédictifs et contrôlés obtiennent une plus grande résilience, en alignant étroitement la capacité de l’infrastructure sur la croissance de l’entreprise.

L’ACP est une solution idéale et flexible pour les architectures centrées sur l’Edge.

Le Custom Pod Autoscaler constitue une solution pratique et intelligente pour les environnements informatiques périphériques modernes. Il remplace le comportement rigide et réactif de l’autoscaler de pods horizontal par défaut par une méthode de mise à l’échelle proactive tenant compte du contexte et évaluant conjointement plusieurs signaux de performance. Cette flexibilité permet aux entreprises d’adapter les stratégies d’autoscaling aux besoins spécifiques de leurs applications, qu’il s’agisse de gérer des flux de données à faible latence, des charges de travail de rendu vidéo ou des pics de trafic IoT.

L’architecture de la CPA offre la capacité d’adaptation des performances requise pour fonctionner dans des conditions de limitation stricte des ressources. Sa conception garantit que chaque décision de mise à l’échelle est à la fois guidée par les données et réactive, ce qui permet de maintenir la qualité du service sans surcharger les ressources limitées. Cette capacité à ajuster finement les performances est particulièrement bénéfique pour les opérations en périphérie, où la capacité limitée de calcul et de réseau peut rendre les approches traditionnelles de mise à l’échelle automatique inefficaces ou instables.

Du point de vue du leadership, le CPA représente un modèle d’avenir pour la gestion de l’infrastructure. Les dirigeants devraient considérer son adoption comme une étape clé vers la maturité opérationnelle de l’informatique distribuée. À mesure que les charges de travail migrent loin des environnements cloud centralisés, il devient essentiel d’obtenir des performances fiables à la périphérie. L’ACP fournit cette capacité grâce à une logique de mise à l’échelle qui évolue indépendamment des mesures qu’elle utilise, ce qui permet une flexibilité à long terme et une résilience technique au fur et à mesure de l’évolution des besoins de l’entreprise.

D’un point de vue stratégique, l’adoption de l’ACP favorise également la maîtrise des coûts et la durabilité. En réduisant la création de répliques inutiles, en optimisant l’utilisation de l’unité centrale et en évitant les frais généraux liés à la surdimensionnement, les entreprises peuvent maintenir des performances de service élevées tout en conservant des dépenses d’infrastructure prévisibles. À l’heure où les coûts opérationnels se resserrent et où les systèmes mondiaux exigent une réactivité plus rapide, ces gains d’efficacité renforcent directement la compétitivité.

Associé à des outils Kubernetes existants tels que Horizontal Pod Autoscaler (HPA) et Kubernetes Event-Driven Autoscaler (KEDA), le CPA étend encore davantage les options d’évolutivité. Il s’intègre dans les écosystèmes existants sans nécessiter de remaniements architecturaux importants. Il convient donc aux organisations qui mettent à l’échelle l’innovation dans les environnements cloud et périphériques.

Pour les dirigeants, le message est clair : les performances de pointe nécessitent une infrastructure qui pense et réagit avec précision. Le Custom Pod Autoscaler incarne ce principe, apportant stabilité, adaptabilité et efficacité là où elles comptent le plus. Avec une configuration adéquate et une surveillance constante, les entreprises peuvent déployer l’ACP pour créer des systèmes prévisibles et performants qui évoluent intelligemment au fur et à mesure que la demande et les opportunités augmentent.

En conclusion

L’informatique en périphérie repousse les limites de l’infrastructure numérique. La combinaison de ressources locales limitées et de la demande des utilisateurs en temps réel signifie que les stratégies traditionnelles de mise à l’échelle ne suffisent plus. Le Custom Pod Autoscaler (CPA) montre ce qu’il est possible de faire lorsque la flexibilité, la connaissance prédictive et le contrôle sont intégrés directement dans le système.

Pour les dirigeants, le principal enseignement est que la mise à l’échelle proactive n’est pas simplement une mise à niveau technique, c’est un avantage commercial. Les systèmes qui anticipent et s’adaptent maintiennent la fiabilité en cas d’augmentation de la demande, protègent l’expérience de l’utilisateur et contrôlent les coûts d’exploitation. Dans les environnements distribués où la performance définit la force concurrentielle, ces qualités déterminent qui mène et qui suit.

L’adoption de l’ACP ne consiste pas à remplacer les outils existants. Il s’agit de les compléter par une intelligence qui permet une croissance soutenue, une utilisation efficace des ressources et de meilleurs résultats financiers. Les organisations qui choisissent aujourd’hui de mettre en œuvre une mise à l’échelle plus intelligente se positionnent pour un avenir où les décisions relatives à l’infrastructure sont directement à l’origine des performances de l’entreprise.

À mesure que les charges de travail se rapprochent des utilisateurs, le succès dépendra de la prévisibilité et de la mise à l’échelle en fonction des données. Ceux qui investissent aujourd’hui dans cette prévisibilité construiront des systèmes capables de répondre aux demandes de demain avec cohérence, rapidité et confiance.

Alexander Procter

avril 24, 2026

22 Min

Experts Okoone
PARLONS-EN !

Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.

Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.

Veuillez saisir une adresse email professionnelle valide.