L’automatisation complète du codage par l’IA n’interviendra pas avant au moins cinq ans

Les développeurs humains ne sont pas près de disparaître. Un rapport récent de LessWrong repousse la prévision d’un codage entièrement autonome piloté par l’IA aux alentours de février 2032. Il s’agit d’un délai important si l’on considère que les prévisions précédentes étaient de 2027 ou 2028. Si vous êtes directeur technique ou directeur informatique et que vous devez prendre des décisions aujourd’hui, cela vous donne de la marge pour respirer, mais pas pour rester immobile. Cela signifie que que les ingénieurs humains restent au cœur de votre cycle de production pour le reste de la décennie.

La définition utilisée ici est précise : un « codeur surhumain » est un système d’IA qui peut dépasser les meilleurs ingénieurs de votre équipe d’un facteur 30 en termes de vitesse, en utilisant seulement 5 % de la puissance de calcul que ces ingénieurs utilisent normalement. Il ne s’agit pas d’une automatisation étroite de snippets ou de scripts modélisés. Il s’agit d’une autonomie radicale.

Ce retard reflète la difficulté des variables du monde réel. L’IA n’augmente pas son efficacité au même rythme qu’il y a quelques années. Les goulets d’étranglement de l’apprentissage automatique en matière de calcul, d’énergie, de talent et de capital se font maintenant cruellement sentir. Si les progrès des modèles de transformation et de l’automatisation sont réels, leur intégration pratique dans les tâches logicielles complexes n’a pas été linéaire. C’est l’une des principales raisons pour lesquelles les délais s’allongent.

Pour les dirigeants, le message est simple : planifiez avec l’IA, pas autour d’elle. Les développeurs seront au centre de l’exécution des logiciels pendant des années, soutenus, et non remplacés, par des systèmes intelligents. Investissez donc dans votre personnel tout en développant les capacités de l’IA de manière à améliorer les performances humaines. La technologie évolue rapidement, mais pas assez pour dépasser un bon leadership stratégique axé sur la croissance hybride.

Les prévisions révisées découlent d’une nouvelle modélisation et d’un pessimisme accru concernant les progrès rapides de l’IA.

L’optimisme entourant la courbe d’auto-amélioration de l’IA s’est heurté à un mur. La nouvelle prévision de LessWrong n’est pas seulement une nouvelle hypothèse, c’est le résultat d’une remise en question délibérée. Le modèle sous-jacent est passé à ce que l’entreprise appelle « l’extrapolation des tendances de référence des capacités ». Cela signifie qu’ils utilisent les performances actuelles de l’IA sur des tests standard pour projeter les capacités futures, et qu’ils reconnaissent que les performances s’amenuisent dans certains domaines clés.

Auparavant, l’ambiance dans l’espace R&D de l’IA était plus agressive. Les modèles s’amélioraient rapidement, les ressources informatiques semblaient infinies et la dynamique de l’automatisation semblait inarrêtable. Mais ces hypothèses n’ont pas résisté à une analyse plus approfondie. Le modèle révisé tient désormais compte d’éléments plus sobres : ralentissement de la croissance du calcul, problèmes d’approvisionnement en microprocesseurs, contraintes énergétiques croissantes et atteinte des limites réelles de l’automatisation de la recherche.

Plus précisément, l’équipe de LessWrong s’est appuyée sur la suite d’horizons temporels de METR (METR-HRS), l’outil d’analyse comparative le plus complet disponible aujourd’hui pour estimer la quantité de calcul nécessaire pour atteindre l’AGI. Même avec les meilleures références, ils soulignent que les capacités réelles sont en retard sur les performances des tests. Ils prévoient un ralentissement d’un an de l’efficacité de l’apprentissage des modèles et de deux ans de l’automatisation de la recherche en IA. Cela est dû à des goulets d’étranglement structurels dans l’innovation et à des rendements décroissants dans les gains logiciels.

Si vous êtes à la tête d’une entreprise, n’élaborez pas votre stratégie sur la base de scénarios d’IA optimaux. Ces modèles sont très sensibles à leurs propres hypothèses. En termes opérationnels, construisez avec réalisme. L’IA s’améliore, certes, mais toutes les percées ne sont pas extensibles, toutes les expériences n’ont pas d’impact et toutes les prévisions ne méritent pas une confiance aveugle. C’est ainsi que les entreprises gagnantes conservent leur élan en terrain incertain : elles gardent la main sur la technologie et l’exécution.

Le développement de l’IA vers l’AGI est désormais conçu comme une série d’étapes progressives

La voie vers l’intelligence artificielle générale (AGI) a été redéfini. Il ne s’agit pas d’un saut binaire entre l’IA d’aujourd’hui et la parité cognitive totale avec les humains. Le dernier modèle de LessWrong présente une progression, mesurée et structurée, qui passe par des étapes distinctes en termes de capacités. Il y a d’abord le « codeur surhumain », suivi du « chercheur en IA surhumain », puis des systèmes qui surpassent les meilleurs spécialistes humains dans presque toutes les tâches cognitives. La destination finale est la superintelligence artificielle (ASI), où les capacités ne reflètent plus le plafond humain, mais le dépassent de plusieurs ordres de grandeur.

Cette feuille de route progressive modifie notre façon d’envisager la préparation de l’entreprise. Pour les dirigeants qui dirigent des programmes de transformation, il est improductif de s’attendre à ce que l’AGI apparaisse d’un seul coup. Le déploiement se fera par étapes, et ces étapes apportent des défis et des opportunités très différents. Un « codeur surhumain », par exemple, n’implique pas l’effondrement des équipes d’ingénieurs, mais il modifie la façon dont l’efficacité, la supervision et le contrôle architectural doivent être structurés.

Daniel Kokotajlo, chercheur à LessWrong, souligne l’urgence de la situation : « L’arrivée de l’AGI au cours de la prochaine décennie semble être une possibilité très sérieuse. Son équipe a constaté que de nombreux chercheurs en IA s’appuient déjà sur des outils d’IA pour accélérer leurs travaux, même si l’étendue de leur impact reste floue. Ce qui émerge n’est pas spéculatif, il y a un mouvement, mais il est stratifié. La capacité n’a pas besoin d’être absolue pour être transformationnelle.

Si vous vous préparez pour les cinq à dix prochaines années, construisez votre stratégie d’IA sur cette structure progressive. Chaque niveau de capacité de l’IA offre un effet de levier, si vous êtes prêt à l’intégrer correctement. Pour cela, il faut d’abord comprendre ce que chaque étape signifie pour la structure de vos talents, vos processus de R&D et la manière dont vous envisagez les investissements à long terme. Les grandes révisions du système ne viendront pas d’un changement soudain, mais de la maîtrise de chaque incrément de capacité au fur et à mesure qu’il se présente.

Les prédictions basées sur des indices de référence sont utiles mais présentent de sérieuses limites

Le monde de l’IA ne manque pas de points de référence. Mais tout miser sur ce que les résultats des tests révèlent des capacités futures est une erreur. L’équipe de LessWrong a établi ses prévisions principalement sur la base de METR-HRS, une suite de tests de référence conçus pour déterminer la quantité de calcul nécessaire pour atteindre le niveau de performance de l’AGI. Ces mesures sont utiles, mais les chercheurs sont clairs : les critères de référence sont des approximations, pas des garanties.

À mesure que les modèles d’IA évoluent, il existe un risque constant que les performances obtenues lors de tests normalisés ne se traduisent pas par une efficacité durable dans les systèmes du monde réel. Les systèmes qui réussissent les tests de référence peuvent encore échouer dans des environnements logiciels complexes et imprévisibles à plusieurs versions. Les prévisions de LessWrong tiennent compte de cette incertitude. Elles reconnaissent que si les tendances actuelles contribuent à façonner les attentes, elles peuvent, et c’est souvent le cas, se briser. Cette variabilité fait des prévisions précises une cible mouvante.

Pour les dirigeants de la suite C, en particulier les directeurs techniques et les directeurs des systèmes d’information, le principe de travail devrait être le suivant : utiliser des points de référence pour suivre l’évolution, et non pour fixer des attentes strictes. Si vous planifiez des déploiements ou des changements de produits en vous basant uniquement sur le moment où un modèle d’IA pourrait techniquement atteindre un certain niveau de performance, vous exposez votre feuille de route à une fragilité évitable.

Les prévisions précises dans le domaine de l’IA sont volatiles par nature. Les critères de référence tels que le METR-HRS sont des outils précieux, mais ils ne sont pas des indicateurs définitifs de la fiabilité de l’ensemble du système. Tenez compte des projets d’essai, des comportements extrêmes et des frictions liées à l’intégration dans le monde réel. Menez vos efforts en matière d’IA avec des boucles de retour d’information étroites et des options de correction. C’est ainsi que vous resterez adaptable dans un domaine où ce qui est « proche de l’avenir » arrive rarement en ligne droite.

Le rôle futur de l’IA dans les entreprises se concentrera sur l’augmentation plutôt que sur le remplacement des travailleurs humains

L’IA ne rendra pas les humains obsolètes de sitôt, et ce n’est pas un défaut. C’est la réalité dans laquelle les dirigeants doivent opérer. À l’heure actuelle, l’opportunité immédiate pour les dirigeants n’est pas l’automatisation complète. C’est l’accélération. Ce qui est déjà clair, c’est que l’IA peut comprimer les flux de travail, raccourcir les cycles d’itération et soutenir la prise de décisions complexes sous la supervision de l’homme. Le modèle de LessWrong et l’activité industrielle plus large suggèrent tous deux que le changement à long terme pourrait éventuellement réduire certaines catégories de travail de la connaissance, mais nous n’en sommes pas encore là.

Les entreprises devraient se concentrer sur l’intégration structurée, et non sur la perturbation. Cela signifie des pilotes limités, des outils internes affinés par l’IA et des garde-fous bien gérés pour l’autonomie. Plus important encore, les systèmes d’audit et de responsabilité doivent évoluer en parallèle. C’est là que se produit la différenciation, pour les entreprises qui font de l’IA une couche stratégique de capacités à l’intérieur de systèmes disciplinés.

Sanchit Vir Gogia, analyste en chef chez Greyhound Research, a lancé un appel clair : les entreprises ne devraient pas débattre de la question de savoir si l’IA peut coder, elle le peut déjà. Il s’agit maintenant d’utiliser l’IA pour réduire les temps de cycle tout en gardant les humains responsables des résultats. M. Gogia a également prévenu les dirigeants de ne pas se tromper de calendrier : l’avenir proche n’est pas aux bases de code autonomes, mais aux équipes augmentées.

Par conséquent, si vous menez une transformation numérique au sein d’une entreprise, recalibrez le modèle mental. Éliminez le battage médiatique et concentrez-vous sur la refonte des processus. Utilisez l’IA pour amplifier votre personnel, pas pour le remplacer. C’est là que la valeur réelle se manifeste, l’ascenseur opérationnel, les boucles plus serrées, moins de goulots d’étranglement. Les systèmes construits avec l’IA intégrée intelligemment, avec une appropriation claire de la part des équipes humaines, avanceront plus vite et plus proprement que ceux qui essaient de remplacer la main-d’œuvre prématurément.

Les prévisions de l’IA sont complexes, subjectives et sujettes au changement

Les prédictions en matière d’IA sont assorties de mises en garde : la stabilité d’un modèle dépend de ses hypothèses. Les dernières prévisions de LessWrong en sont un exemple parfait. L’équipe a ajusté ses prévisions en fonction de contraintes émergentes telles que l’offre de calcul, les rendements décroissants de la recherche et l’évolution des mécanismes de rétroaction au sein même du développement de l’IA. Le résultat ? Un calendrier actualisé et plus prudent pour des étapes clés telles que le codage autonome et l’AGI.

Ce qui importe ici pour les dirigeants de C-suite, ce ne sont pas les prévisions exactes, c’est de comprendre à quel point les prévisions peuvent être fragiles dans ce domaine. Les modèles peuvent sembler mathématiquement solides et pourtant ne pas tenir compte de l’impact des découvertes révolutionnaires, des changements de réglementation ou des pressions géopolitiques sur les chaînes d’approvisionnement en semi-conducteurs. LessWrong l’a dit directement : aucun modèle d’IA, y compris le sien, ne doit être entièrement fiable. Leur propre cadre comprend des interprétations subjectives superposées à des données de référence.

Les implications pour la stratégie de l’entreprise sont claires. Ne fondez pas votre planification critique sur des calendriers statiques ou sur les promesses de vendeurs offrant des certitudes. Ancrez votre approche dans une stratégie adaptable, conçue pour absorber les perturbations. Construisez pour l’optionnalité. Si vous alignez vos cycles d’investissement uniquement sur les dates d’arrivée de l’AGI, vous vous exposez à des angles morts qui peuvent coûter du temps et du capital.

Cet espace est en mouvement. Mais il ne se déplace pas en ligne droite. Les modèles qui fluctuent aujourd’hui sont un signal, il est normal d’être optimiste, mais votre planification doit tenir compte de la variabilité structurelle. C’est là que les entreprises gardent le contrôle. Elles ne prévoient pas, elles préparent.

Principaux enseignements pour les dirigeants

  • L’automatisation complète du codage par l’IA n’interviendra pas avant au moins cinq ans : Les prévisions situent désormais l’IA de codage entièrement autonome aux alentours de 2032, ce qui donne aux entreprises le temps de renforcer la collaboration entre l’homme et l’IA plutôt que de planifier le remplacement des développeurs. Les dirigeants devraient investir dans des systèmes qui améliorent les équipes d’ingénieurs plutôt que de les éliminer.
  • Le ralentissement des progrès reflète les nouvelles limites techniques et de ressources : Les modèles actualisés tiennent compte du ralentissement de la croissance du calcul, du rythme de la R&D et de la diminution du rendement des logiciels. Les décideurs devraient élaborer des stratégies d’IA sur la base de calendriers réalistes fondés sur les contraintes en matière d’infrastructures et de capacités.
  • L’AGI émergera par étapes structurées : La progression de l’IA passera par des étapes de performance distinctes, comme les codeurs et les chercheurs surhumains, bien avant de parvenir à l’AGI. Les dirigeants devraient évaluer les implications de chaque étape pour la structure de l’équipe, la conception du logiciel et les ressources.
  • Les repères en matière d’IA sont directionnels : les tendances en matière de repères, telles que le METR-HRS, offrent des signaux utiles, mais échouent souvent face à la complexité du monde réel. Utilisez-les comme des indicateurs de progrès, et non comme des points d’ancrage pour la planification, et intégrez la flexibilité dans les efforts d’intégration de l’IA.
  • L’intégration de l’IA devrait accélérer le travail : L’avantage à court terme pour l’entreprise réside dans l’utilisation de l’IA pour comprimer les délais et redéfinir les flux de travail sous la supervision de l’homme. Donnez la priorité à l’augmentation et à la responsabilisation pour stimuler la performance sans saper les talents.
  • Les prévisions de l’IA sont fragiles et ne doivent pas conduire à des plans rigides : Le modèle de LessWrong repose sur des données subjectives et des variables évolutives, ce qui souligne qu’aucun calendrier n’est absolu. Créez des cadres opérationnels qui s’adaptent aux changements de la vitesse de développement de l’IA plutôt que de supposer des dates d’arrivée fermes.

Alexander Procter

février 9, 2026

14 Min