La prolifération rapide de l’apprentissage tout au long de la vie n’est pas viable d’un point de vue environnemental et économique.

Nous voyons apparaître trop de grands modèles de langage, et le rythme des nouvelles versions s’accélère. Les LLM sont puissants, mais leur formation consomme beaucoup d’énergie. La formation d’un seul modèle haut de gamme, comme un LLM propriétaire, peut coûter jusqu’à 5 millions de dollars. Il faut ensuite assurer le fonctionnement de l’ensemble. L’inférence, le processus de génération des réponses, coûte des millions par an si l’utilisation s’intensifie. Et ce sera le cas.

Ce type d’investissement pourrait se justifier si les modèles produisaient des avantages uniques. Mais lorsque la plupart d’entre eux finissent par accomplir les mêmes tâches (génération de texte, résumé, raisonnement), il est clair que nous sommes confrontés à un problème de saturation. Nous générons des coûts et des émissions bien plus rapidement que nous ne créons de nouvelles capacités.

Cela s’accompagne également d’un coût en termes de carbone. La formation d’un LLM peut émettre environ 200 tonnes de CO₂, ce qui équivaut à faire rouler 40 voitures pendant un an. Ce chiffre ne tient pas compte des émissions liées aux opérations. Ces modèles sont déployés sur d’énormes grappes de GPU fonctionnant 24 heures sur 24 et 7 jours sur 7. La plupart sont alimentés par des réseaux énergétiques encore dominés par les combustibles fossiles. Cela multiplie l’impact.

Pour les entreprises qui misent sur l’IA, la vraie question est celle de l’efficacité : Construisez-vous quelque chose de vraiment différent ou ajoutez-vous simplement votre nom à un tableau d’affichage déjà bien rempli ? Trop d’organisations semblent tomber dans la deuxième catégorie. Cela se traduit par des milliards de dollars de coûts irrécupérables et de dommages environnementaux, sans différenciation significative en termes de production ou de performance.

Si votre organisation prétend donner la priorité à l’ESG ou à la réduction des émissions de carbone tout en lançant des projets de LLM qui font double emploi, vous avez un conflit à résoudre. Vous ne pouvez pas mener les deux à l’échelle sans être transparent sur le compromis. La stratégie la plus intelligente est la suivante : moins de modèles, plus d’impact, une réelle différenciation.

Les nouveaux LLM n’offrent généralement que des améliorations progressives par rapport à la technologie existante.

La plupart des nouveaux LLM sont des mises à niveau mineures, de légères modifications de l’architecture, des améliorations modestes du raisonnement, des gains de performance marginaux dans les benchmarks. Si vous êtes honnête, la plupart des modèles font les mêmes choses avec des paramètres légèrement différents.

Le fait est que des modèles énormes comme GPT-3 (175 milliards de paramètres), BLOOM (176 milliards) et PaLM de Google (500 milliards) couvrent déjà la plupart des cas d’utilisation. Les données d’entraînement se chevauchent fortement. Nous puisons tous dans le même réservoir : Wikipedia, Common Crawl, Reddit, sites d’information, livres. Il n’est donc pas surprenant que les résultats soient souvent identiques : mêmes informations, même style, mêmes zones d’ombre.

Les entreprises sortent un nouveau modèle, le qualifient de « dernier cri » et affirment qu’il surpasse leurs concurrents de quelques points de pourcentage. C’est bien, mais la différence ne change pas le monde.

Cette question est importante au niveau de la direction. La formation et le déploiement de nouveaux modèles nécessitent un véritable budget. Mais le retour sur investissement s’essouffle lorsque les différences entre les modèles sont mesurées en décimales plutôt qu’en résultats. En bref : vous payez un supplément pour un résultat presque identique.

Si votre objectif est de déployer l’IA pour créer de nouvelles gammes de produits, étendre les capacités ou remodeler l’expérience client, posez-vous la question suivante : le LLM que vous soutenez apporte-t-il réellement quelque chose de nouveau ? La plupart ne le font pas. Vous risquez donc de vous retrouver exactement au même point qu’au début, avec simplement plus d’infrastructure dans votre bilan.

La véritable opportunité réside désormais dans l’optimisation, et non dans la duplication. Les gains progressifs ne sont pas mauvais, mais ils ne devraient pas exiger de nouveaux investissements massifs sans retours clairs. Choisissez des modèles qui apportent une réelle valeur ajoutée, et non une simple répétition de la même chose avec une étiquette plus brillante.

Les pratiques de développement de l’IA sont en contradiction avec les engagements des entreprises en matière de développement durable

Il y a une déconnexion au sein de nombreuses organisations, et il n’est pas difficile de la repérer. D’un côté, nous voyons des messages ESG forts, des objectifs de durabilité publics et des rapports environnementaux soignés. De l’autre, cette même organisation forme des LLM à grande échelle sur des centres de données alimentés par des combustibles fossiles, sans aucune transparence sur les coûts environnementaux. Ce n’est pas une position durable. Les dirigeants ne peuvent ignorer cette contradiction.

Si votre entreprise met en avant des initiatives écologiques tout en finançant le développement d’une IA gourmande en ressources, ces priorités vont se heurter. La formation d’un seul LLM avec l’infrastructure actuelle peut générer jusqu’à 200 tonnes de CO₂. Ce chiffre augmente rapidement si vous formez plusieurs variantes ou si vous procédez à des ajustements continus. Et si votre source d’énergie n’est pas propre, les émissions se multiplient.

Les laboratoires et les fournisseurs d’IA laissent souvent dans l’ombre l’impact carbone. Cela ne durera plus très longtemps. Les régulateurs sont de plus en plus vigilants et les parties prenantes établissent un lien entre les pratiques d’IA et les cadres de développement durable. Par conséquent, si vous construisez des logiciels à fortes émissions tout en prétendant donner la priorité à la responsabilité environnementale, cette lacune deviendra un handicap.

Les investisseurs institutionnels, les clients et même les employés sont plus conscients des risques liés à l’écoblanchiment. Si l’histoire que vous racontez à l’extérieur ne correspond pas à votre feuille de route interne en matière d’IA, le fossé de la crédibilité se creuse. Cela affecte la valeur de la marque, la rétention des talents et le positionnement à long terme.

Les dirigeants n’ont pas à choisir entre l’innovation et la durabilité. Mais ils doivent faire preuve de transparence. Assumez le coût environnemental de ces systèmes et mettez en place des pratiques mesurables pour le réduire. Si votre stratégie d’IA génère des émissions, présentez des données sur la manière dont vous vous efforcez de les compenser ou de les minimiser. Il s’agit d’une question de prise de décision alignée, et non de marketing.

Une approche coordonnée et axée sur l’efficacité pourrait atténuer l’impact sur l’environnement.

Il existe une meilleure façon de construire. À l’heure actuelle, trop d’entreprises forment indépendamment des modèles de formation qui résolvent les mêmes problèmes fondamentaux : traitement du langage, raisonnement, résumé, applications de chat. Les besoins en calcul sont énormes, mais les capacités sont souvent déjà disponibles grâce à des modèles open-source ou commerciaux existants.

Au lieu que chaque organisation parte de zéro, la collaboration peut réduire le gaspillage et accélérer la productivité. Utilisez ce qui est déjà construit. Adoptez des architectures LLM normalisées. Branchez-vous sur une infrastructure partagée alimentée par des sources d’énergie renouvelables. Lorsque les efforts en matière d’intelligence artificielle sont répartis mais harmonisés, les coûts économiques et environnementaux diminuent.

Certains modèles formés sur des réseaux alimentés par des combustibles fossiles produisent jusqu’à 50 fois plus d’émissions que ceux formés à partir de sources d’énergie renouvelables. Ainsi, même l’emplacement de votre réseau électrique a son importance. Si vos opérations d’IA se déroulent dans une région tributaire du charbon, cette décision a d’importantes répercussions sur le développement durable. Les entreprises tournées vers l’avenir optimisent déjà la formation des modèles pour réduire ces variables.

Les projets et les plateformes partagés ne limitent pas l’innovation. Ils permettent aux équipes de se concentrer sur la différenciation des produits, l’expérience des utilisateurs et le déploiement, domaines dans lesquels l’impact est réel. La collaboration au niveau de la plateforme réduit également les doublons et permet d’investir davantage dans des domaines tels que l’efficacité de l’inférence, les performances multilingues et l’intégration de l’informatique de pointe.

Si vous occupez un poste de direction, posez des questions difficiles à votre équipe : Avons-nous besoin d’une formation qui parte de zéro ? Sommes-nous en train de reproduire ce qui fonctionne déjà ? Pouvons-nous passer à l’échelle par l’intégration plutôt que par la réinvention ? Ces questions sont directement liées à l’efficacité du capital, au risque environnemental et au délai de mise sur le marché.

L’ère de la formation isolée d’énormes modèles est en train de s’achever. La prochaine étape sera plus efficace, plus collaborative et, franchement, plus intelligente. L’IA de grande valeur ne doit pas nécessairement s’accompagner d’un coût environnemental élevé, si vous construisez stratégiquement.

La démocratisation des LLM a conduit à une redondance excessive dans le développement des modèles.

L’accès libre à des modèles d’IA puissants a changé la donne. Les LLM open-source tels que LLaMA, Falcon et Mistral sont désormais largement disponibles, et toute personne disposant du matériel nécessaire peut les télécharger, les affiner et les déployer. C’est une bonne chose pour l’accessibilité, mais cela s’accompagne d’un problème croissant, la redondance. L’espace se remplit de modèles qui font en grande partie la même chose, entraînés sur des ensembles de données presque identiques, ne différant que légèrement dans l’architecture ou la stratégie de réglage.

Il s’agit d’un modèle gourmand en ressources. La formation de chaque modèle nécessite des calculs importants, des millions de dollars et une forte consommation d’énergie. Le problème est que très peu de ces nouveaux modèles se différencient de manière significative. Dans la plupart des cas, ils produisent des résultats presque identiques aux modèles existants. Cela signifie que nous brûlons des milliards d’euros d’énergie et de temps de développement sur des systèmes qui reproduisent des travaux déjà effectués.

Cette tendance se développe rapidement car les barrières à l’entrée ont diminué. Vous n’avez plus besoin d’un énorme laboratoire d’IA. Il vous suffit d’avoir accès à des GPU de base et à des bases de code facilement disponibles. Par conséquent, les entreprises se sentent poussées à lancer leur « propre » modèle, même s’il n’offre que peu d’avantages fonctionnels. Il s’agit d’une duplication, d’une mise à l’échelle rapide et d’une consommation d’énergie supérieure à ce qu’elle rapporte en termes de valeur.

Pour les dirigeants qui suivent le retour sur investissement, c’est important. L’investissement nécessaire pour développer et déployer un nouveau LLM est élevé : la formation, l’infrastructure, la conformité, les opérations d’inférence et les mises à jour sont autant d’éléments qui entrent en ligne de compte. Si le système qui en résulte ne fournit pas de résultats d’une valeur unique ou ne contribue pas à la propriété intellectuelle ou à l’avantage concurrentiel, votre capital est mal réparti et votre empreinte d’émissions augmente sans justification.

La meilleure voie est celle de la sélectivité. Utilisez ce qui fonctionne déjà, à moins que la construction de quelque chose de mieux puisse être clairement définie et justifiée. L’intégration de modèles open-source éprouvés, combinée à un réglage des performances en fonction des besoins réels de l’entreprise, permet souvent d’obtenir de meilleurs résultats pour une fraction du coût. Évitez les projets qui visent à « posséder un modèle » pour lui-même.

Les dirigeants doivent intervenir et imposer la clarté : Quel est l’objectif ? Quel problème ce modèle résout-il ? En quoi est-il concrètement meilleur que les outils existants ? Si ces questions n’obtiennent pas de réponses concrètes, l’allocation des ressources doit s’arrêter là.

Principaux enseignements pour les décideurs

  • Trop de modèles, pas assez de différenciation : Les organisations déploient rapidement de grands modèles de langage (LLM) avec un coût environnemental et financier élevé, bien que la plupart d’entre eux offrent des capacités similaires. Les dirigeants doivent s’assurer que les investissements dans l’IA apportent une valeur unique avant d’allouer des ressources importantes.
  • Rendements décroissants des nouveaux LLM : Les LLM successifs construits sur les mêmes ensembles de données n’offrent que des améliorations mineures en termes de performances. Les dirigeants doivent se demander si les nouveaux modèles surpassent matériellement les modèles existants avant de donner le feu vert à leur développement.
  • Les lacunes en matière de développement durable érodent la crédibilité : La création de LLM est en contradiction avec les objectifs publics de développement durable de nombreuses entreprises, ce qui crée des risques de réputation et de conformité. Les dirigeants doivent aligner les feuilles de route de l’IA sur les engagements ESG et divulguer les compromis environnementaux de manière transparente.
  • L’infrastructure partagée réduit les coûts et l’impact : La centralisation du développement du LLM à l’aide de cadres open-source, d’énergie renouvelable et d’architectures standardisées réduit la duplication et les émissions. Les entreprises devraient donner la priorité à la collaboration plutôt qu’à la formation de modèles isolés afin d’optimiser le retour sur investissement et la durabilité.
  • La prolifération des logiciels libres entraîne une duplication inefficace : Si l’accès à l’IA s’est amélioré, la facilité de construction des modèles a conduit à des déploiements redondants qui gaspillent le calcul et le budget. Les dirigeants devraient évaluer si les nouveaux modèles internes apportent une différenciation stratégique ou s’ils se contentent de reproduire des outils librement accessibles.

Alexander Procter

mai 5, 2025

12 Min