Les entreprises de GenAI se tournent vers des modèles linguistiques open-source plus petits et spécifiques à certaines tâches.
L « ère des modèles linguistiques massifs à taille unique est en train de s’estomper. On assiste à l » émergence de modèles plus intelligents, plus légers et nettement plus adaptables, plus petits et à code source ouvert, adaptés avec précision à des fonctions spécifiques. Microsoft, HubSpot et ServiceNow ne se contentent pas d’expérimenter cette approche, ils s’y engagent. Elles font ce que font les entreprises intelligentes : aligner la technologie sur les besoins réels de l’entreprise.
Qu’est-ce qui fait la valeur de ces petits modèles ? Ils sont ciblés. Ils sont plus légers. Et ils sont plus rapides à déployer. Il ne s’agit pas de faire des économies, mais de choisir le bon outil pour le bon travail. Lorsque vous avez besoin d’un agent d’IA pour gérer le service client, résumer des documents, générer du contenu ou même accueillir un nouvel employé, il existe désormais un moyen fiable de mettre en œuvre une IA qui a été formée pour exceller dans ce rôle.
Craig LeClair, de Forrester Research, l’a bien compris : les entreprises ne vont pas se contenter d’un ou deux modèles généraux. Elles vont en déployer des centaines, chacun formé à un domaine spécifique. Cela signifie une intelligence spécifique à la tâche à l’échelle, et cela change l’économie de l’automatisation. Vous consacrez moins d’énergie à faire fonctionner un grand modèle et plus d’attention au déploiement de la capacité exacte nécessaire, au moment et à l’endroit voulus.
Pour les directeurs généraux, cette tendance marque un changement opérationnel significatif. Avec des modèles allégés, les déploiements peuvent s’étendre plus rapidement à l’ensemble de l’entreprise. Vous n’avez pas besoin d’attendre qu’un LLM rattrape votre cas d’utilisation, vous dirigez la mise en œuvre sur la base des processus et des données actuels, et vous continuez à avancer. C’est de l’agilité. C’est le contrôle.
Les modèles à source ouverte offrent de la flexibilité
Les modèles linguistiques libres ont pris leur essor et les avantages sont évidents. Ils réduisent les charges de calcul, donnent aux équipes la liberté d’effectuer des réglages précis pour des tâches spécifiques et offrent beaucoup plus de flexibilité que leurs homologues propriétaires. Dans la pratique, cela permet de réduire les coûts et d’accélérer la rentabilité, en particulier dans les environnements d’entreprise qui exigent précision, adaptabilité et rapidité.
Microsoft intègre déjà de plus petits modèles open-source dans ses principales plateformes de produits. Phi Silica, leur petit modèle ouvert propriétaire, est intégré dans les applications Microsoft 365 qui fonctionnent hors ligne sur les appareils Windows équipés d’unités de traitement neuronal. Aparna Chennapragada, Chief Product Officer for Experiences and Devices de Microsoft, a expliqué comment ses équipes adaptent ces modèles à des tâches spécifiques, à l’écriture, à l’analyse et même à la génération d’images. Il s’agit d’une allocation intelligente des ressources et d’une optimisation ciblée des performances.
La philosophie de l’approche de HubSpot est similaire. Elle utilise des modèles tels que Mistral AI pour le texte et Stability Diffusion 3 pour la génération d’images. Nicholas Holland, responsable de l’IA et vice-président chargé des produits chez HubSpot, a précisé qu’il ne s’agissait pas de réinventer la roue. Ils appliquent les bons modèles existants aux bons besoins. Cela permet non seulement de réduire les frais généraux, mais aussi d’obtenir des résultats rapides et spécifiques pour les clients, sans les inconvénients d’un calcul massif.
Qu’est-ce qui rend cette question pertinente pour les cadres ? Flexibilité et gouvernance. Les outils open-source peuvent être personnalisés en interne, régis par vos propres politiques en matière de données et déployés selon vos conditions. Vous bénéficiez ainsi d’un meilleur contrôle, de coûts réduits et d’une meilleure protection de la vie privée, sans dépendre de la feuille de route d’un seul fournisseur.
Ce qu’il faut en retenir ? L’efficacité l’emporte. Que votre priorité soit la souveraineté des données, l’agilité de l’entreprise ou l’amélioration des marges, les LLM open-source offrent désormais un équilibre efficace entre performance et contrôle.
Microsoft stimule l’innovation en intégrant des LLM open-source plus petits
Microsoft développe des outils d’IA qui ne dépendent pas d’une connexion constante au cloud. Il s’agit là d’un changement fondamental. Avec l’introduction de Phi Silica, un modèle de langage compact et open-source, Microsoft dote les PC Windows AI de la capacité d’exécuter des tâches localement, sans avoir besoin de faire appel à des serveurs externes. Cela signifie que les utilisateurs peuvent rester productifs indépendamment de la connectivité, tout en bénéficiant de capacités d’IA adaptées au travail qu’ils effectuent.
Aparna Chennapragada, Chief Product Officer for Experiences and Devices de Microsoft, l’a clairement expliqué. Microsoft ne se contente pas d’utiliser un petit modèle, il assemble une boîte à outils de modèles légers et post-entraînés qui servent des tâches opérationnelles distinctes. Aide à la rédaction, analyse de documents complexes, création d’images, chaque fonction est associée à un modèle optimisé pour fournir des résultats efficaces et rapides sur l’appareil.
Il ne s’agit pas de réduire les fonctionnalités. Il s’agit de précision et de performance. Pour les dirigeants, cela se traduit par des avantages concrets. Les équipes peuvent continuer à créer, concevoir, écrire ou résoudre des problèmes, même dans des environnements où l’accès au cloud n’est pas stable ou autorisé pour des raisons de politique ou de conformité. L’informatique est également soumise à un contrôle organisationnel plus strict, en particulier lorsqu’elle est associée à du matériel tel que des unités de traitement neuronales.
D’un point de vue plus large, cette approche réduit la dépendance interne vis-à-vis des ressources informatiques externes. Elle réduit la latence, permet des flux de travail critiques dans des environnements hors ligne et aide à étendre l’adoption de l’IA dans les industries ayant des exigences strictes en matière de sensibilité des données, telles que le juridique, la finance ou les soins de santé, avec moins de compromis.
La stratégie de HubSpot en matière d’IA
HubSpot ne dépense pas de capital agressif pour essayer de construire le prochain modèle d’IA révolutionnaire. Elle se concentre plutôt sur l’exécution, sur l’utilisation de ce qui se fait de mieux pour obtenir des résultats plus rapides et plus précis. La plateforme Breeze AI de l’entreprise utilise un ensemble de modèles open-source qui peuvent être déployés là où ils sont les plus performants. Cela inclut Mistral AI SAS pour les tâches de langage naturel et Stability Diffusion 3 pour la génération de contenu visuel.
Nicholas Holland, vice-président chargé des produits et responsable de l’IA chez HubSpot, l’a dit clairement : ils ne se préoccupent pas de posséder des modèles fondamentaux. Ce qui les préoccupe, c’est de résoudre des problèmes commerciaux rapidement et à grande échelle. Le modèle utilisé dépend entièrement de la tâche. Si un raisonnement est nécessaire, un modèle optimisé pour la logique sera utilisé. S’il s’agit de générer du texte ou des images, un modèle plus rapide et plus petit peut intervenir et fournir des résultats sans frais généraux inutiles.
Cette vision modulaire met les résultats des clients au premier plan. Elle permet également à HubSpot de s’adapter rapidement. L’entreprise peut changer de modèle ou peaufiner différentes capacités en fonction des besoins, sans avoir à réviser l’infrastructure. C’est de la concentration opérationnelle, et les dirigeants devraient en prendre note.
Pour les chefs d’entreprise, la proposition de valeur est claire. Ils bénéficient d’une plus grande souplesse, de frais de R&D réduits et de cycles d’itération plus rapides pour les fonctionnalités qui ont une incidence directe sur l’engagement des clients. Il s’agit également d « éviter le verrouillage et de maintenir la capacité d’adaptation à la concurrence. La stratégie de HubSpot montre l’avantage qu’il y a à travailler avec l » écosystème plutôt que d’essayer de se l’approprier.
ServiceNow fait progresser l’IA d’entreprise
ServiceNow adopte une approche disciplinée de l’IA générative en se concentrant sur le raisonnement plutôt que sur la taille brute. En collaboration avec Nvidia, l’entreprise a développé Apriel, un modèle de langage open-source spécialement conçu avec seulement 15 milliards de paramètres. C’est beaucoup moins que la plupart des modèles de base, mais il est intentionnellement conçu pour être plus performant dans les tâches de raisonnement d’entreprise telles que l’assistance informatique, l’aide à la décision en matière de ressources humaines et les flux de travail du service clientèle.
Dorit Zilbershot, Group Vice President of AI Experiences and Innovation de ServiceNow, a souligné qu’un plus grand nombre de paramètres ne signifie pas automatiquement un meilleur résultat, en particulier dans les scénarios d’entreprise du monde réel où la capacité du modèle à raisonner avec précision au sein d’un système structuré importe plus qu’une généralisation générale. Apriel permet d’obtenir des vitesses d’inférence plus rapides et des demandes de calcul plus faibles, ce qui est à la fois essentiel pour la performance et le contrôle des coûts.
Cette approche correspond bien aux exigences de l’entreprise. Les grands modèles consomment une infrastructure considérable, ce qui n’est pas toujours nécessaire lorsque la tâche exige de la clarté, de la logique et de la cohérence contextuelle. La conception allégée d’Apriel le rend déployable, gouvernable et évolutif dans les environnements de production sans affaiblir les performances.
Pour les dirigeants, il s’agit d’une utilisation efficace du capital IA. Vous investissez dans l’intelligence là où elle permet d’obtenir des résultats, et non dans la complexité. Apriel montre qu’un raisonnement plus solide peut provenir de modèles compacts et sur mesure, et pas toujours de l’échelle pure et simple. Les entreprises disposent ainsi d’outils plus fiables, d’une mise en œuvre plus rapide et d’une friction opérationnelle réduite.
Gouvernance des données et préoccupations en matière de contrôle
La gouvernance des données n’est plus une considération secondaire, c’est un facteur essentiel dans la façon dont l’IA est déployée à travers les industries. Les entreprises sont de plus en plus à la recherche de moyens de contrôler plus étroitement les données d’entraînement, le comportement des modèles et les règles d’accès. L’exécution de modèles open-source sur site répond à toutes ces exigences. Elle assure la transparence, garantit l’alignement sur les protocoles de conformité internes et réduit le risque d’exposition des données.
Craig LeClair, vice-président et analyste principal chez Forrester Research, a expliqué clairement ce changement. Il a souligné que de nombreuses organisations reviennent à l’infrastructure sur site parce qu’elles veulent des modèles d’IA formés sur des données propriétaires dans des conditions contrôlées. La principale préoccupation est la possibilité d’une fuite de propriété intellectuelle ou d’une rupture de gouvernance lorsque les modèles sont gérés en externe par le biais d’API tierces.
Pour les décideurs, cette tendance représente un calcul simple : lorsque vos données façonnent votre proposition de valeur, vous contrôlez les entrées et les sorties. Les modèles open-source fonctionnant en interne donnent aux entreprises une visibilité totale sur ce que le modèle apprend, comment il fonctionne et comment ses réponses évoluent après la formation.
Cette orientation permet également d’améliorer la viabilité à long terme de l’IA. Vous ne dépendez pas des mises à jour des fournisseurs ou des deltas des modèles externes. Vous construisez avec des actifs qui restent sous l’entière gouvernance de l’organisation. Cette autonomie stratégique devient de plus en plus importante à mesure que l’IA devient une infrastructure critique. Les entreprises qui s’y préparent aujourd’hui pourront évoluer avec plus d’assurance par la suite.
Principaux enseignements pour les dirigeants
- Les entreprises de GenAI sont en train de passer à des modèles de langage open-source plus petits et spécifiques à une tâche : Les dirigeants devraient adopter des modèles d’IA plus petits et spécifiques à un domaine afin d’accélérer le déploiement et d’améliorer la précision des tâches dans toutes les fonctions de l’entreprise tout en maintenant la rentabilité.
- Les modèles open-source offrent flexibilité, personnalisation et gestion efficace des coûts : Favorisez les LLM open-source pour obtenir un contrôle architectural, réduire les coûts d’infrastructure et personnaliser rapidement les outils d’IA en fonction de l’évolution des besoins de l’entreprise.
- Microsoft stimule l’innovation en intégrant des LLM open-source plus petits pour améliorer les capacités hors ligne dans Microsoft 365 : Les entreprises devraient envisager de localiser les opérations d’IA avec des modèles légers pour améliorer la sécurité des données, garantir l’utilisabilité hors ligne et réduire la latence opérationnelle.
- La stratégie de HubSpot en matière d’IA est centrée sur le déploiement des outils open-source les mieux adaptés plutôt que sur le développement de modèles propriétaires : Évitez de surinvestir dans l’IA propriétaire ; concentrez-vous plutôt sur l’exploitation de modèles open-source éprouvés pour répondre rapidement aux demandes des clients et évoluer plus intelligemment.
- ServiceNow fait progresser l’IA d’entreprise en co-développant avec Nvidia un modèle allégé et optimisé pour le raisonnement appelé Apriel : les dirigeants devraient explorer les modèles allégés optimisés pour le raisonnement afin d’obtenir une automatisation plus rapide des décisions sans les coûts de calcul élevés des LLM à grande échelle.
- Les préoccupations en matière de gouvernance et de contrôle des données sont à l’origine de la tendance au déploiement sur site des modèles d’IA open-source : Privilégiez le déploiement sur site de l’IA open-source pour protéger les données sensibles, maintenir la conformité et conserver un contrôle stratégique sur les sources de formation.