L’intégration par LinkedIn de l’IA dans une architecture cloud-native distribuée.

LinkedIn construit discrètement quelque chose de significatif, en intégrant l’intelligence artificielle dans les fondations de sa pile technologique. Contrairement aux outils autonomes ou aux démonstrations tape-à-l’œil, ce que fait LinkedIn est directement lié à l’échelle, à l’utilité et à la valeur à long terme.

L’élément clé est l’intégration de l’IA en tant que couche native au sein de son architecture de cloud distribué. Il ne s’agit pas d’une capacité supplémentaire. L’IA travaille aux côtés des pipelines de données, des modèles de sécurité et des couches de services, et fonctionne comme n’importe quel composant natif d’un système logiciel moderne. En pratique, cela signifie que l’IA peut filtrer des informations, résumer de grands ensembles de données, convertir des discours et même traduire des langues, le tout dans le cadre de l’infrastructure existante de LinkedIn.

L’IA n’est pas considérée comme un nouveau jouet. Elle est traitée comme une fonction de premier ordre, un outil essentiel dans la pile. Cela permet à LinkedIn de sortir du bac à sable et de se déployer à grande échelle au sein de l’entreprise. Vous bénéficiez d’une adaptabilité, d’une réduction des frictions pour le développement interne et d’une livraison plus rapide des fonctionnalités alimentées par l’IA sur une plateforme mondiale.

Pour les dirigeants, en particulier dans les grandes entreprises, la conclusion est simple : intégrez l’IA là où elle a du sens, ne la construisez pas autour d’elle. Connectez-la directement aux flux de travail et aux données auxquels vous faites déjà confiance. Cela permet à l’IA d’évoluer avec vos systèmes, et non de rester à l’écart en tant que preuve de concept. Si elle est bien utilisée, l’IA devient un multiplicateur de force.

Exploitation des modèles logiciels traditionnels par le biais de la messagerie et des API

Les capacités d’IA de LinkedIn reposent sur des bases solides, des modèles d’ingénierie établis qui ont résisté à l’épreuve du temps. Les systèmes de messagerie et les API en sont la base. Au lieu de tout réinventer, ils adaptent ce qui fonctionne déjà et l’enrichissent de capacités intelligentes.

L’équipe déploie des agents, des modules pilotés par l’IA, en utilisant des architectures de messagerie. Les messages sont échangés entre les services avec des données structurées ou semi-structurées. Cela permet aux agents de comprendre et de répondre sur la base de l’historique des interactions en cours. Le contexte n’est pas perdu. Si un recruteur souhaite déplacer une recherche de « San Francisco » à « Londres », le système comprend déjà le flux.

L’adoption des API gRPC est également importante. Elles ne sont pas nouvelles, mais la façon dont LinkedIn combine ces interfaces avec les fonctionnalités d’intelligence artificielle place la barre très haut. Les développeurs peuvent transmettre des métadonnées entre les composants en utilisant des formats connus et pris en charge, ce qui permet un comportement cohérent et évolutif des agents sur la plateforme.

Selon Karthik Ramgopal, ingénieur distingué chez LinkedIn, il ne s’agit pas de rechercher la nouveauté. « Même lorsque nous construisons des agents, la réalité est que vous avez toujours une application orientée vers l’utilisateur », a-t-il déclaré. « Vous avez toujours un système distribué à grande échelle en arrière-plan. Il a raison. S’appuyer sur des modèles connus permet de réduire les risques opérationnels, d’accélérer le déploiement et de faire en sorte que l’architecture reste lisible pour n’importe quelle équipe d’ingénieurs compétents.

Pour les dirigeants, cela signifie des coûts de développement réduits et moins de surprises lors du déploiement de l’IA en production. Il n’est pas nécessaire de sacrifier la résilience et l’évolutivité à l’innovation. Utilisez l’IA là où elle offre un effet de levier, et construisez-la sur des systèmes que votre équipe sait déjà faire évoluer et gérer. C’est ainsi que vous avancerez rapidement, même dans l’entreprise.

Mise en place d’un « service de cycle de vie de l’agent »

L’infrastructure d’IA générative de LinkedIn est centrée sur ce qu’elle appelle un « service de cycle de vie de l’agent ». Le concept n’est pas complexe, il est simplement bien exécuté. Le service lui-même est sans état. C’est essentiel. Il agit comme une couche de contrôle, coordonnant les agents d’IA, gérant les interactions de données et dirigeant les flux de messagerie à travers la plateforme, le tout sans gérer la mémoire en interne.

L’état et la mémoire sont gérés en dehors du service, dans des systèmes de stockage conçus à cet effet. Cela signifie que l’échelle n’est pas liée aux limites d’une instance unique. Si vous augmentez la charge, vous ajoutez des nœuds. Pas de friction. La flexibilité de cette structure permet à LinkedIn de prendre en charge à la fois des requêtes courtes et interactives et des processus par lots plus longs sans casser l’architecture de base ou augmenter les coûts de calcul inutilement.

Le système ne se contente pas d’envoyer et de recevoir des messages. Il comprend le contexte. Par exemple, il sait quand une tâche nécessite un suivi continu, comme dans le cas d’un recruteur qui examine plusieurs groupes de candidats dans différentes zones géographiques. Ce contexte est capturé et maintenu par des mémoires externes, ce qui permet une persistance de la compréhension qui s’aligne sur l’intention de l’utilisateur à travers le temps.

Ce type d’orchestration est une conception éprouvée qui s’applique à un environnement d’IA complexe. Si vous exploitez des systèmes à grande échelle, la coordination sans état avec mémoire découplée vous offre flexibilité, performances et voies de reprise sur panne propres. Il s’agit de rendre le système aussi efficace et fiable que le reste de l’infrastructure de l’entreprise.

Incorporation d’une supervision humaine dans les flux de travail de l’IA

LinkedIn comprend que l’IA ne fonctionne pas en vase clos et, plus important encore, qu’elle ne devrait pas le faire. Dans sa plateforme, la prise de décision humaine est délibérément intégrée. De l’authentification basée sur les rôles aux communications automatisées modifiables, les humains gardent le contrôle des principaux résultats. Ce n’est pas parce que l’IA ne peut pas fonctionner de manière autonome, c’est parce qu’elle ne devrait pas le faire dans certains contextes, en particulier lorsque la confiance et la responsabilité sont en jeu.

Dans des produits comme Hiring Assistant de LinkedIn, par exemple, tous les courriels de sensibilisation des candidats générés par l’IA doivent être examinés et confirmés par une personne avant d’être envoyés. La valeur de cette décision ne réside pas dans la limitation de l’automatisation, mais dans la préservation de l’intégrité. Lorsque la carrière d’une personne est en jeu et que les décisions ont un poids réel, le système ne supprime jamais la responsabilité humaine de la boucle.

Cette approche réduit le risque de non-conformité, ce qui est important dans un monde où les lois sur la confidentialité des données sont de plus en plus strictes. Mais l’avantage est plus profond. L’IA fonctionne mieux lorsqu’elle apprend en collaboration avec l’utilisateur. En faisant remonter les décisions, les améliorations et les corrections, les humains forment efficacement l’agent à se comporter de manière plus précise dans des situations récurrentes. Au fil du temps, cela permet d’obtenir de meilleures performances sans pour autant céder toute l’autonomie.

Pour tout dirigeant qui supervise des déploiements d’IA, en particulier dans des secteurs réglementés et à fort impact, il s’agit d’un modèle qui s’adapte de manière responsable. Gardez les humains dans le processus pour les interactions critiques. Vous obtiendrez de meilleurs résultats, moins de problèmes de conformité et une expérience produit à laquelle les utilisateurs peuvent réellement faire confiance. Il ne s’agit pas seulement d’un alignement sur la politique, mais d’un alignement sur le bon sens.

Accent mis sur l’observabilité et le contrôle des systèmes d’IA

LinkedIn ne se contente pas de déployer l’IA, il suit la façon dont chaque élément se comporte. Sa plateforme inclut une observabilité totale dès le premier jour. Elle utilise des technologies comme OpenTelemetry pour instrumenter l’ensemble de la pile technologique de l’IA, garantissant ainsi une visibilité précise sur les interactions des agents, les appels de service et les chemins de données.

Il ne s’agit pas d’enregistrer pour enregistrer. Il s’agit de comprendre comment l’IA prend ses décisions et d’où elles proviennent. Les données d’observabilité facilitent le débogage, mais jouent également un rôle essentiel dans la conformité et l’atténuation des risques. C’est essentiel dans le domaine de l’IA, où les résultats peuvent varier en fonction des modèles de données, du contexte et des comportements appris. Vous ne voulez pas de boîtes noires dans l’IA d’entreprise, surtout à grande échelle.

La surveillance permet également de mettre en évidence des problèmes de performance cachés. Vous pouvez voir quand un agent ne parvient pas à atteindre un service, quand la latence augmente de manière imprévisible ou quand les entrées de données ne correspondent pas au format prévu. Ce niveau de traçabilité garantit que les résultats de l’IA restent alignés sur les attentes opérationnelles et réglementaires, qu’il s’agisse de flux de travail de recrutement, d’outils de veille commerciale ou de plateformes d’engagement des clients.

Karthik Ramgopal, ingénieur distingué chez LinkedIn, a clairement souligné ce point : les systèmes d’IA à grande échelle nécessitent « la même rigueur » en matière d’observabilité que les logiciels traditionnels. Sans surveillance, il n’y a pas de responsabilité. Sans responsabilité, il n’y a pas de confiance, en interne ou avec les utilisateurs. Pour les dirigeants d’entreprise, la barre est claire : ne donnez pas le feu vert à l’IA sans investir parallèlement dans la transparence et l’intelligence du système. Si vous ne pouvez pas l’auditer, vous ne pouvez pas la contrôler.

Intégration du traitement asynchrone et par lots pour optimiser les performances

L’infrastructure d’IA de LinkedIn ne se contente pas de gérer les interactions en temps réel. Elle est conçue pour prendre en charge les flux de travail asynchrones et les processus par lots lorsque cela est nécessaire. Cette flexibilité est importante lorsque la plateforme doit gérer des tâches à différents niveaux d’urgence et de coût de calcul.

Toutes les tâches d’IA n’exigent pas une exécution immédiate. Par exemple, l’évaluation d’un large vivier de candidats pour une nouvelle offre d’emploi peut être traitée en arrière-plan. Cela permet d’économiser des ressources pendant les périodes de forte affluence. Mais lorsqu’un candidat de qualité signale sa disponibilité, le système réagit en temps réel et présente immédiatement les noms aux recruteurs. Les deux scénarios utilisent la même architecture. La plateforme alloue simplement les ressources en fonction du contexte et des besoins de l’entreprise.

C’est ainsi que vous gérez la disponibilité du GPU et les coûts d’inférence lorsque vous travaillez à grande échelle. Vous investissez dans le calcul lorsque la synchronisation est essentielle, mais vous différez et optimisez lorsque le temps d’observation n’est pas critique. Cet équilibre permet d’améliorer l’efficacité du système tout en maintenant la réactivité de l’utilisateur.

Pour les dirigeants qui gèrent des opérations d’IA à grande échelle, il s’agit d’une stratégie claire. Toutes les charges de travail ne sont pas égales. Certaines nécessitent une action instantanée, d’autres non. Concevoir une architecture d’IA qui respecte ces différences permet de préserver les performances et de réduire les frais généraux de l’infrastructure en même temps. Il ne s’agit pas seulement d’une couche d’optimisation, mais d’une décision de conception nécessaire pour l’évolutivité à long terme.

Positionner l’IA comme une composante à part entière des logiciels d’entreprise

LinkedIn ne traite pas l’IA comme quelque chose de distinct. Elle fait partie de l’architecture logicielle de base, au même titre que les API, le stockage ou les services de messagerie. C’est ainsi que l’IA devient durable à l’échelle de l’entreprise. Elle n’est pas isolée dans des environnements de test ou déployée pour des démonstrations à court terme. Elle fonctionne parallèlement aux systèmes existants, en production, et produit des résultats concrets.

Les agents fonctionnent comme des modules logiciels. Ils interagissent avec les orchestrateurs, gèrent leurs propres tâches et se connectent aux sources de données pertinentes. Il ne s’agit pas d’un concept. La première application publique, l’assistant d’embauche mis à jour, est déjà déployée. Elle aide les recruteurs à filtrer les candidats en se basant sur le langage naturel. L’IA se charge des suggestions, de l’automatisation et des affinements contextuels. Mais tout fonctionne dans des interfaces d’entreprise familières. Il n’y a pas de perturbation dans la façon dont les équipes travaillent.

C’est à cela que devrait ressembler un déploiement moderne de l’IA. Il ne s’agit pas d’une simple couche de fonctionnalités, ni d’un système autonome en concurrence avec vos outils de base. L’IA s’adapte aux besoins de l’entreprise, avec l’observabilité, la sécurité, la gestion de la mémoire et la conformité intégrées. Elle est extensible à travers les flux de travail et évolue en fonction de l’utilisation, sans nécessiter de réécriture.

Pour les chefs d’entreprise et les responsables techniques, il s’agit là de l’état futur souhaité. L’IA ne se situe pas à l’extérieur du produit. Elle s’y intègre et améliore les opérations de base de l’intérieur. L’adoption devient plus facile. Les équipes d’ingénieurs maintiennent la vitesse. Les unités commerciales bénéficient d’une valeur immédiate. Il ne s’agit pas d’une architecture expérimentale, mais d’un système performant qui s’aligne sur les valeurs de l’entreprise : fiabilité, performance et impact mesurable.

En conclusion

L’IA n’a pas besoin d’être séparée des systèmes que vous utilisez déjà. L’approche la plus efficace est celle adoptée par LinkedIn, qui traite l’IA comme une infrastructure et non comme une invention. Elle est intégrée à l’architecture, mise à l’échelle comme n’importe quel autre service cloud et surveillée avec la même diligence que vos meilleures équipes d’ingénieurs apportent aux systèmes de production.

Ce modèle fonctionne parce qu’il est fondé sur une exécution pratique. Il protège les données des utilisateurs. Il respecte les limites réglementaires. Il permet aux humains de garder le contrôle là où c’est important. Et il est performant, parce qu’il n’essaie pas de perturber tout ce qui fonctionne déjà.

Pour les dirigeants, le message est clair. Ne considérez pas l’IA comme une surcouche ou une phase future. Commencez à l’intégrer là où elle apporte une valeur mesurable. Utilisez des modèles que vos équipes comprennent déjà. Donnez la priorité à l’observabilité et à la responsabilité dès le premier jour. Et surtout, faites en sorte que l’IA fasse partie de votre produit, et non d’un projet secondaire.

C’est ainsi que l’on peut évoluer avec détermination. C’est ainsi que vous dirigez avec confiance.

Alexander Procter

septembre 30, 2025

13 Min