L’ouverture de l’IA ne reproduira pas les succès passés de l’open-source
Les défenseurs des logiciels libres citent souvent le succès de Linux ou d’Apache comme preuve que la transparence et le développement mené par la communauté sont voués à l’échec. Ce n’est pas tout à fait ainsi que fonctionne l’intelligence artificielle. Dans le cas des logiciels standard, lorsqu’un système devient stable et largement utile, il passe souvent au logiciel libre, ce qui le rapproche d’un service public partagé. Mais l’IA n’appartient pas à cette catégorie. La physique est différente.
Les grands modèles d’IA d’aujourd’hui ne sont pas des logiciels que vous pouvez modifier sur votre ordinateur portable. Il s’agit de systèmes pilotés par des milliards de paramètres, entraînés sur des pétaoctets de données, utilisant des ressources informatiques qui coûtent des millions. Vous avez besoin de capital. Vous avez besoin de données privées. Vous avez besoin du type de mathématiques et d’infrastructures que peu de personnes ou d’entreprises possèdent. Alors, oui, certaines parties semblent ouvertes, mais les règles du jeu ne sont pas équitables, et elles ne l’ont jamais été.
La plus grande partie de la valeur réelle continuera à se déplacer vers les services construits à partir de ces modèles. C’est là que se situe l’indemnisation. C’est là que résident la conformité, la sécurité et la continuité des activités. Si vous ne pouvez pas garantir que votre modèle ne va pas inventer de fausses informations et compromettre votre marque, vous n’êtes pas dans le coup. Ce genre d’assurance ne vient pas de l’ouverture. Elle provient de l’infrastructure et de la responsabilité, des éléments auxquels les entreprises attachent de l’importance.
Les dirigeants doivent comprendre que le mouvement ouvert de l’IA n’est pas le reflet du passé. Il ne s’agit pas d’idéologie. Il s’agit d’une question d’utilité. Les poids du modèle peuvent être gratuits, mais l’intégration sûre, la gestion de la sécurité et la gouvernance du déploiement auront toujours un coût. Et c’est là que l’open-source perd de son élan.
Frank Nagle, de Harvard et de la Fondation Linux, a apporté des données solides à cette conversation. Mais même son rapport sur l’efficacité des modèles ouverts fait ressortir quelque chose de plus profond : l’avantage économique de l’ouverture est aujourd’hui réel, mais il est surtout théorique à l’échelle. Dans la pratique, les grandes entreprises ne peuvent pas se permettre d’être théoriques.
Les modèles d’IA open-source offrent une quasi-parité avec les systèmes fermés tout en réduisant les coûts d’exploitation
Le rapport 2024 de Frank Nagle de la Fondation Linux est clair : les modèles d’IA open-source, comme le Llama 3 de Meta, peuvent atteindre 90 % des performances des produits fermés haut de gamme comme le GPT-4. Et ils peuvent le faire pour environ un sixième du coût d’exploitation. Du point de vue de l’efficacité pure, on pourrait donc penser que la plupart des entreprises changeraient de modèle. Ce n’est pas le cas. Et c’est ce qui est intéressant.
Ce que cela nous apprend, c’est que la décision de s’en tenir à des systèmes fermés n’est pas une question de performance. C’est une question de sécurité. Il s’agit de savoir qui fournit l’assistance en cas de défaillance. Les entreprises paient pour des éléments tels que la fiabilité, le temps de fonctionnement, l’assistance à la conformité, les indemnités légales et la protection contre les risques à long terme. Ces éléments ne sont pas facultatifs si vous menez des opérations à grande échelle. Vous ne vous contentez pas d’une qualité suffisante, vous voulez une production garantie et cohérente à grande échelle. Avec quelqu’un à appeler en cas de problème.
La « perte » annuelle de 24,8 milliards de dollars que Nagle met en évidence ? Ce n’est pas du gaspillage. C’est le paiement de la confiance, de la commodité et des services de qualité. Considérez cela comme une assurance d’infrastructure. Les entreprises ne paient pas trop cher, elles rachètent l’incertitude opérationnelle. C’est un échange raisonnable pour la plupart des conseils d’administration.
Si vous êtes à la tête d’une entreprise en ce moment, vous devriez bien sûr garder un œil sur les améliorations de coûts provenant du côté ouvert. Cependant, vous ne devez pas vous attendre à ce que cela se traduise par une domination du marché du jour au lendemain. L’adoption ne repose pas seulement sur le prix et la parité. Elle dépend de la stabilité, de la confiance et de la viabilité de la pile complète. C’est l’avenir du déploiement de l’IA : des composants ouverts fonctionnant au sein d’architectures fermées et étroitement gérées. Vous ne gagnerez pas en étant moins cher, mais en étant plus complet.
La commodité, la gestion des risques et les protections juridiques sont à l’origine de la préférence constante pour les services d’IA fermés.
Les entreprises ne se contentent pas d’acheter des jetons. Elles achètent un soutien juridique, une aide à la conformité et des garanties opérationnelles. C’est pourquoi, même lorsque les modèles open-source offrent des avantages significatifs en termes de coûts, la plupart des entreprises continuent de payer une prime pour des plateformes fermées telles qu’OpenAI ou Anthropic. Ces fournisseurs proposent des accords de niveau de service (SLA) clairement définis, des filtres de sécurité, une modération du contenu et, ce qui est peut-être le plus important, une entité juridique que vous pouvez tenir pour responsable en cas de problème.
Lors du déploiement de l’IA générative à grande échelle, la fiabilité importe plus que la parité théorique des modèles. Le risque institutionnel, qu’il soit réglementaire, juridique ou de réputation, n’est pas abstrait. Il est bien réel. Vous avez besoin de canaux de responsabilité clairs, d’une couverture de sécurité et d’outils de surveillance active. Ce n’est pas quelque chose que vous obtenez en téléchargeant des poids ouverts à partir d’un dépôt GitHub.
Le début des années 2010 nous a montré ce qui se passe lorsque vous donnez aux gens la possibilité d’exécuter un code libre et gratuit ou d’obtenir un service entièrement géré. La grande majorité d’entre eux ont choisi le service géré. Non pas parce qu’ils ne pouvaient pas utiliser le logiciel, mais parce qu’il n’était pas rentable de le faire seuls alors que le véritable risque opérationnel se situait dans tout ce qui entourait le logiciel.
Les dirigeants devraient aborder cette question sous l’angle des frictions de livraison, des frais généraux de gouvernance et de la résilience de la réponse aux incidents. Les modèles ouverts ne fournissent pas actuellement ces éléments. Les fournisseurs fermés le font, et c’est pourquoi ils conservent une forte emprise sur les revenus, même lorsque les modèles ouverts semblent prometteurs sur le papier.
L’estimation de Frank Nagle de 24,8 milliards de dollars montre ce qui est sur la table en termes de réduction possible des coûts. Mais ces économies s’évaporent rapidement lorsqu’elles sont associées à une incertitude en matière de conformité ou à une production hallucinée qui a des conséquences réelles pour votre entreprise.
L’écosystème de l’IA manque de collaboration communautaire décentralisée
La réussite du logiciel libre, il y a quelques décennies, reposait sur de faibles barrières à l’entrée. Tout développeur compétent disposant d’un ordinateur portable pouvait améliorer une base de données, corriger un bogue ou créer un outil. L’IA n’offre pas ce niveau d’accessibilité. L’entraînement ou la modification d’un modèle de pointe nécessite des milliers de GPU et l’accès à des téraoctets de données d’entraînement de qualité. Ce n’est pas quelque chose que les développeurs indépendants, ou même la plupart des startups, peuvent se permettre.
La discussion sur les talents est également différente aujourd’hui. À l’époque de Linux, les ingénieurs les plus brillants travaillaient ouvertement pour plusieurs entreprises. Aujourd’hui, l’IA est de plus en plus développée au sein de laboratoires privés. Les meilleurs chercheurs sont déjà recrutés par Google, OpenAI, Anthropic et une poignée d’autres. Ces entreprises ne se contentent pas de contrôler l’échelle de calcul, elles contrôlent la direction de l’évolution des modèles, les filières de recherche et le poids de l’influence universitaire.
L’IA à code source ouvert n’occupe qu’une place très restreinte dans cette réalité plus large. Même lorsque des entreprises comme Meta publient des modèles ouverts, elles ouvrent rarement les données d’entraînement ou invitent à une participation distribuée au développement. Ce qui est publié est disponible à la source, mais n’est pas vraiment « ouvert » dans un sens collaboratif. Cela donne de la transparence, mais pas d’influence ou de contrôle.
Les chefs d’entreprise doivent bien comprendre cette distinction. L’étiquette ouverte de l’IA ne signifie pas la même chose que pour les systèmes d’exploitation ou les logiciels de serveur. La capacité d’inspecter n’équivaut pas à la capacité de façonner. Cela modifie l’équation coûts-avantages pour les entreprises qui envisagent d’investir dans l’IA en s’appuyant sur une collaboration ouverte.
Frank Nagle attire l’attention sur ces différences structurelles, notant que sans accès à l’ensemble de l’écosystème, à l’informatique, aux données et aux talents, la communauté des logiciels libres ne peut pas fournir le même type de vitesse d’innovation qu’auparavant. Cela a des implications majeures pour les fournisseurs, les partenaires et les stratégies internes de R&D dans l’ensemble des entreprises.
Dans le domaine de l’IA, les mises à disposition de logiciels libres sont souvent stratégiques
Certaines entreprises diffusent de puissants modèles d’IA dans des conditions ouvertes, mais sans faire preuve de bonne volonté. Ces diffusions sont calculées. Lorsque Meta, Mistral ou DeepSeek proposent des modèles à poids ouvert, elles le font pour affaiblir l’avantage propriétaire d’un concurrent, et non pour créer une communauté de développement florissante. L’objectif est de transformer le modèle en un produit de base, en déplaçant la valeur vers des couches à plus forte marge, où ces entreprises opèrent déjà à grande échelle et avec contrôle.
Par exemple, Meta gagne peu à concurrencer directement OpenAI sur les modèles fermés vendus aux entreprises. Mais en mettant Llama à disposition gratuitement, Meta fait baisser la valeur perçue du modèle lui-même. Cela pousse le véritable avantage commercial vers les couches que Meta peut directement monétiser, comme ses plateformes (Facebook, Instagram, WhatsApp) et ses services propriétaires améliorés par l’IA. Il s’agit d’une stratégie de marché défendable qui vise à réduire les frictions pour les développeurs tout en captant les budgets des entreprises grâce à des systèmes intégrés et fermés.
L’absence d’un véritable pipeline de développement ouvert signifie que les modèles à poids ouvert n’évoluent pas grâce à une large contribution de la communauté. Ils sont souvent introduits dans l’écosystème avec peu de transparence sur le processus de formation, peu de soutien pour les forker ou les améliorer à grande échelle, et aucune invitation réelle à co-créer avec l’équipe d’origine. C’est un monde différent de celui des logiciels libres traditionnels.
Les dirigeants doivent aborder les modèles d’IA ouverts avec un réalisme lucide. Étudiez les conditions de licence, les antécédents de contribution, les incitations de l’écosystème et les intérêts stratégiques de l’entreprise émettrice. Une grande partie de ce qui est qualifié d' »ouvert » ne permet pas fonctionnellement l’innovation ouverte, mais plutôt une adoption plus large tout en maintenant le contrôle sur les couches de services premium.
Ce déploiement stratégique de l’ouverture en tant que levier concurrentiel ajoute une couche de complexité à la manière dont les entreprises doivent évaluer les partenariats et les dépendances à l’égard des plates-formes.
Le marché de l’IA évolue vers une structure hybride
L’IA évolue vers un modèle à deux étages. La base, les grands modèles de langage eux-mêmes, devient de plus en plus ouverte. Des modèles tels que Llama 3 et DeepSeek sont presque aussi performants que GPT-4 pour de nombreuses tâches générales. Au fil du temps, l’élément différenciateur ne sera pas la possession du modèle de base, mais la capacité à l’affiner avec des données personnalisées, à l’intégrer dans des outils d’entreprise complexes et à l’envelopper dans des couches de conformité et d’assurance.
Le modèle à poids ouvert peut gérer la génération de texte. Mais ce n’est pas le problème auquel la plupart des entreprises sont confrontées. Ce dont elles ont besoin, c’est d’un résultat traçable, fiable et étroitement intégré aux opérations. Cela signifie qu’il faut peaufiner les ensembles de données propriétaires, déployer avec observabilité et assurer des flux de travail de gouvernance. Ces couches exigent une infrastructure et un soutien qui ne seront pas disponibles gratuitement. C’est là que les vraies marges se déplacent.
La couche de données, en particulier les ensembles de données verticales ou spécifiques à un domaine pour les soins de santé, la logistique, le droit ou la finance, restera privée. La couche de raisonnement ou « agentique », qui gère l’exécution des tâches et la logique inter-applications, restera également fermée. Ces couches représentent des défis difficiles à relever, avec des enjeux importants et des implications juridiques. Elles nécessitent des structures de propriété et de responsabilité, ainsi que des équipes d’intégration. Ce n’est pas quelque chose que les écosystèmes ouverts sont en mesure de fournir à grande échelle.
Les chefs d’entreprise qui planifient des stratégies d’adoption de l’IA doivent prévoir un budget non seulement pour l’adoption du modèle, mais aussi pour l’orchestration, la personnalisation et la conformité. Le modèle ouvert vous permet de faire 20 % du chemin. Les 80 % restants – fiabilité, intégration, observabilité – représentent les coûts et la valeur. Plus vite les organisations accepteront cet avenir hybride, plus vite elles seront en mesure de générer des rendements compétitifs à partir de leurs dépenses en IA.
Les données de Frank Nagle confirment déjà ce que nous constatons ici : les modèles de base sont économiquement attrayants, mais ils ne fonctionnent pas dans le vide. Ils ne débloquent de la valeur qu’à l’intérieur d’une pile renforcée, prête pour l’entreprise. C’est là que les gagnants investiront.
Les gagnants à long terme de l’IA
L’adoption de l’IA n’est pas un choix binaire entre modèle ouvert et modèle fermé. L’avenir appartient à ceux qui peuvent utiliser des modèles ouverts à leur avantage, mais qui les entourent de composants fermés, robustes et évolutifs dont les entreprises ont réellement besoin. Ce sont les entreprises qui résolvent les vrais problèmes de déploiement : intégration avec les systèmes d’entreprise, réglage spécifique au domaine, couches de conformité et automatisation fiable.
Les modèles ouverts vous permettent d’éviter les coûts de développement de base. Mais l’inférence brute n’est pas ce qui permet d’obtenir des résultats commerciaux. Si le modèle ne peut pas exécuter une tâche réelle, interagir avec les outils de votre pile en toute sécurité ou répondre aux attentes en matière de conformité, il n’apporte pas de valeur opérationnelle. Les entreprises ne veulent pas seulement des résultats génératifs, elles veulent des résultats précis, prévisibles et ayant un impact sur l’activité. Cela n’est possible que lorsque les modèles ouverts sont enveloppés dans le type d’infrastructure qui répond aux normes de l’entreprise.
C’est ici que l’exécution pragmatique prend le pas sur les positions idéologiques. Les entreprises les plus performantes prendront des modèles gratuits et très performants comme Llama 3 ou DeepSeek et les fusionneront avec des données propriétaires, une forte orchestration des API, des cadres de gouvernance, des outils de surveillance et un déploiement axé sur la sécurité. Cette conception hybride leur permet de servir les industries réglementées, de soutenir les opérations critiques et de fournir des rendements mesurables.
Les dirigeants doivent privilégier les équipes et les partenaires capables d’assurer l’exécution d’un système complet. Concentrez-vous sur l’ensemble du système. Le moteur n’est qu’un élément parmi d’autres. Pensez à l’observabilité, à la gestion de la responsabilité, au contrôle de la latence et à la posture de sécurité. Ce sont les mesures de performance qui comptent réellement dans la salle du conseil d’administration.
Les recherches de Frank Nagle soulignent cette dynamique. L’écart estimé à 24,8 milliards de dollars entre les modèles ouverts et fermés ne disparaîtra pas. Il sera réaffecté, au profit de ceux qui résolvent les problèmes réels des entreprises à grande échelle. C’est le défi du dernier kilomètre. Il ne s’agit pas de la performance d’un modèle sur un benchmark, mais de la performance de l’entreprise en production. C’est ce qui permet de conclure des affaires, d’instaurer la confiance et de générer une croissance durable.
Le bilan
L’IA ne suit pas le scénario attendu par les défenseurs des logiciels libres, et ce n’est pas un problème, c’est simplement la réalité. L’économie évolue rapidement, l’outillage s’améliore vite et les modèles de base rattrapent leur retard. Mais ce n’est pas le coût seul qui détermine l’adoption par les entreprises. La confiance, la rapidité, l’intégration et la responsabilité ont plus de poids dans toute conversation sérieuse sur le déploiement.
Pour les chefs d’entreprise, la priorité n’est pas de choisir entre un système ouvert et un système fermé. Il s’agit de construire des systèmes qui fonctionnent à grande échelle, avec un juste équilibre entre flexibilité et contrôle. Les modèles ouverts vous donnent un effet de levier. L’infrastructure propriétaire vous assure la pérennité. L’avenir appartient aux entreprises qui combinent les deux et qui agissent rapidement là où c’est le plus important.
Il ne s’agit pas d’idéologie. C’est une question de fonction. Utilisez ce qui est gratuit, investissez dans ce qui est défendable et concentrez-vous sur l’exécution. C’est là que réside l’avantage.


