L’IA générative peut réduire la productivité des programmeurs expérimentés

Nous assistons à un phénomène intéressant. Les outils conçus pour aider les développeurs à aller plus vite, les outils d’IA générative, les ralentissent dans certains cas. Cela signifie que nous devons examiner comment ils fonctionnent réellement dans un contexte de travail, et non pas comment ils fonctionnent dans des diapositives de marketing.

Une étude menée par METR, un groupe de recherche à but non lucratif, a pris 16 développeurs open-source chevronnés, chacun ayant plus d’une décennie d’expérience, et les a confrontés à des plateformes de genAI familières comme Cursor Pro et Claude d’Anthropic (versions 3.5 et 3.7 Sonnet). La configuration était simple : de vrais programmeurs, corrigeant des bugs et construisant des fonctionnalités dans des projets qu’ils connaissaient déjà. Le genre de travail que les développeurs font tous les jours.

Ces développeurs s’attendaient à ce que la genAI réduise de 20 % ou plus la durée de leurs tâches. Ce n’est pas ce qui s’est passé. En moyenne, il leur a fallu 19 % de temps en plus pour terminer leur travail, par rapport aux développeurs qui n’ont pas du tout utilisé d’outils d’IA. Il s’agit de frictions réelles, de plus de temps passé à comprendre les messages-guides, à analyser le code généré automatiquement et à corriger les cas limites, y compris les vulnérabilités en matière de sécurité.

C’est exactement ce qu’a constaté Domenic Denicola, de Google Chrome. Il a travaillé directement avec ces outils de genAI et s’est dit surpris « de voir à quel point les modèles sont mauvais pour mettre en œuvre les spécifications web ». Il ne s’agit pas d’une lacune mineure, mais d’un écart de connaissances entre ce que le modèle produit et ce qui est réellement nécessaire pour un système vivant et sécurisé.

Pour les équipes dirigeantes, le message est clair. Si vos développeurs sont hautement qualifiés, l’intégration de l’IA générique dans leur flux de travail peut ressembler davantage à du baby-sitting qu’à du copilotage. Avant de déployer le support de code amélioré par l’IA au sein de votre équipe, vérifiez s’il augmente réellement le rendement ou s’il ne fait que créer plus de travail.

Les tests de codage exagèrent les gains de productivité en ignorant les cas d’utilisation

Beaucoup d’entreprises spécialisées dans l’IA tirent ces chiffres de tests de codage qui n’ont jamais été conçus pour refléter des projets logiciels réels. Ces tests privilégient souvent le volume et la vitesse au détriment de la précision et de la nuance. Certes, les modèles peuvent déchiffrer des fichiers de script en quelques millisecondes. Mais lorsqu’on leur demande de résoudre des problèmes complexes et interconnectés dans des environnements de code réels, la situation change complètement.

En réalité, ces repères sont plus une question d’échelle que de réalisme. Ils sont conçus pour montrer ce que le modèle peut faire dans des conditions de laboratoire parfaites, et non comment il se comporte lorsqu’il est pointé sur des systèmes existants, avec des bogues et des normes d’ingénierie réelles. Cette distinction est importante. Si vous investissez sur la base des « tâches de codage effectuées par minute », vous passez à côté de ce que font réellement les développeurs : réfléchir, résoudre des problèmes, réparer les erreurs d’autrui.

L’étude METR a été conçue différemment. Elle n’était pas basée sur des défis artificiels. Elle a mesuré la manière dont les programmeurs expérimentés interagissaient réellement avec l’IA dans le cadre de projets familiers. Elle a suivi l’effort réel nécessaire pour obtenir des résultats utiles, valider les résultats et déployer le code.

Les dirigeants de la suite devraient aborder les résultats des analyses comparatives avec un scepticisme de bon aloi. L’IA va absolument remodeler notre façon de travailler et de construire, mais ne fondez pas vos attentes en matière de retour sur investissement interne sur des chiffres qui ne reflètent pas votre environnement de travail réel. Demandez à vos équipes ce qu’elles voient lorsqu’elles mettent ces choses en pratique. Si les indices de référence impressionnent et que les performances réelles tardent à se manifester, vous avez la réponse.

Les outils de GenAI produisent souvent un code de mauvaise qualité qui nécessite une révision approfondie.

Il y a cette idée que l’IA générative vous donne du code rapidement et vous rapproche de l’objectif. C’est en partie vrai, mais ce que l’on oublie, c’est ce qu’il faut faire pour que ce code fonctionne réellement.

Les développeurs qui utilisent genAI se retrouvent souvent à faire le ménage. L’IA peut produire quelque chose qui a l’air bien, voire qui fonctionne, mais sous cette surface se cache généralement un mélange de logique redondante, de mauvaises décisions architecturales et de bogues. La résolution de ces problèmes prend du temps. Et lorsqu’il s’agit de systèmes à qualité limitée, de produits qui exposent les clients ou qui ont des implications en matière de sécurité, il n’est pas possible de prendre des raccourcis.

Les développeurs sur des plateformes telles que Reddit partagent systématiquement le même schéma : la genAI fournit peut-être 80 % du travail rapidement, mais les 20 % restants – la partie qui rend le code viable – sont ceux qui prennent le plus de temps. La suppression des structures dupliquées, la réécriture de la logique défectueuse et l’alignement du code sur les exigences réelles du système prennent plus de temps que si la tâche avait été abordée à partir de zéro par un codeur expérimenté.

Quel est donc l’impact pour les cadres dirigeants ? Il est important de reconnaître que le simple fait de générer du code ne signifie pas que vous générez de la valeur. L’effort d’ingénierie requis après la génération peut neutraliser tout avantage en termes de rapidité. Si vous construisez pour des environnements de production ou pour tout ce qui est en contact avec la clientèle, vous voulez des résultats d’ingénierie robustes.

Ne confondez pas l’efficacité générative avec l’efficacité totale. Si vos équipes expédient plus lentement, ou ne font pas suffisamment confiance aux résultats de l’IA pour expédier, vous ne constatez pas de productivité.

Les développeurs inexpérimentés qui s’appuient sur la GenAI risquent de perdre leurs compétences techniques de base.

Un risque plus profond émerge avec la genAI. Pour ceux qui sont encore en train d’acquérir des compétences fondamentales, les développeurs en début de carrière, les ingénieurs débutants, elle modifie leur façon d’apprendre et ce qu’ils retiennent. L’IA générique leur donne un accès rapide à un code fonctionnel, mais elle n’offre pas le contexte et le retour d’information sur lesquels les développeurs comptent habituellement pour se développer.

Le problème n’est pas de produire quelque chose qui fonctionne. Il s’agit de comprendre comment et pourquoi les choses fonctionnent. Ce manque de compétences est important. Lorsque le code généré par l’IA échoueet cela arrive, ceux qui s’appuient trop fortement sur lui ne savent souvent pas comment identifier la source de la panne, et encore moins comment y remédier. Sans une base solide en matière de débogage et de conception de systèmes, le développeur se retrouve dans une impasse.

Kaustubh Saini, un rédacteur technique qui observe cette tendance, l’a bien exprimé. Selon lui, la genAI produit une génération de codeurs capables de générer mais pas de comprendre. C’est un gros problème. Ils ont du mal à déboguer, à maintenir ou à améliorer leur propre code parce qu’ils n’en comprennent pas la logique de base.

En tant que dirigeant, vous souhaitez que vos équipes évoluent et se développent rapidement. Mais lorsque les jeunes talents se penchent trop sur la genAI sans développer une véritable intuition en matière d’ingénierie, ils plafonnent rapidement. Cela affecte l’évolutivité à long terme, la fiabilité de l’équipe et la capacité à résoudre les problèmes. L’IA générique doit aider les développeurs, et non remplacer le processus d’apprentissage.

C’est le bon moment pour repenser la manière dont vos équipes utilisent l’IA. Il ne s’agit pas de limiter l’accès, mais de définir des attentes claires. Les développeurs doivent comprendre les systèmes qu’ils construisent. Si ces connaissances ne progressent pas, la genAI devient un plafond et non un tremplin.

Les problèmes de productivité observés dans le développement de logiciels avec la genAI apparaissent également dans d’autres domaines professionnels

Ce que nous observons dans les logiciels ne se limite pas à ces derniers. La GenAI est confrontée à des problèmes de performance similaires dans de nombreux secteurs, en particulier lorsque les résultats sont mesurables, comme dans les domaines de la rédaction, de la communication ou de la conception. Le schéma est le même : la vitesse augmente, mais la qualité diminue souvent.

Prenons l’exemple de la rédaction. Les articles, les rapports et le contenu marketing générés par les plateformes de genAI peuvent sembler compétents à première vue. Mais en y regardant de plus près, des problèmes apparaissent : erreurs de faits, mauvaise structure, messages peu clairs. Il s’agit d’une production sans précision. Dans de nombreux cas, les entreprises produisent un contenu passable, mais qui n’est pas assez solide pour produire des résultats stratégiques. Et ce, en supposant que personne ne le vérifie trop attentivement.

La même situation est probablement en train de se produire dans les rôles basés sur les services et la créativité. Les organisations utilisent l’IA pour atteindre leurs objectifs de production, mais elles n’obtiennent pas toujours des résultats dignes de confiance. Et lorsque la confiance n’est pas au rendez-vous, les équipes passent plus de temps à vérifier les faits, à nettoyer et à réviser, ce qui oblige les professionnels expérimentés à effectuer des tâches à faible rendement dans le seul but de rétablir la qualité.

Pour les dirigeants, il ne s’agit pas seulement d’un problème de développement de logiciels. C’est un signal. Si l’IA générique est présentée comme un multiplicateur de main-d’œuvre dans votre entreprise, vous devriez examiner de près ce qu’elle produit réellement. Un rendement plus élevé n’est pas automatiquement synonyme de performances accrues. Les systèmes qui dépendent du contrôle de la qualité, des communications avec les clients, du contenu public, des rapports aux investisseurs, ont toujours besoin de personnes qui savent comment évaluer et corriger les erreurs de l’IA.

Utilisez l’IA générique là où elle crée un effet de levier. Mais ne remplacez pas vos experts par des outils qui ne produisent pas un travail de qualité.

L’approbation à haut niveau du potentiel de productivité de la genAI contraste fortement avec ses performances dans les tâches pratiques.

Vous avez probablement entendu les grandes déclarations des grands noms de l’industrie, qui affirment que la genAI va stimuler le PIB mondial, stimuler la productivité et remodeler le marché de l’emploi. Certaines de ces affirmations sont tout à fait vraies. Mais l’enthousiasme des dirigeants ne correspond souvent pas aux mécanismes mis en œuvre au niveau de l’équipe.

Jensen Huang, PDG de Nvidia, a déclaré que l’IA augmentera tous les emplois. Satya Nadella, PDG de Microsoft, a noté que Copilot contribue à plus de 30 % de la base de code de Microsoft et qu’il « transforme l’expérience des développeurs ». Doug Matty, responsable en chef de l’IA au ministère américain de la défense, a décrit les plateformes d’IA telles que Grok comme essentielles au maintien d’un avantage stratégique. Il s’agit là de déclarations fortes de la part de personnes qui dirigent des entreprises où l’IA est fondamentale.

Mais voilà, les utilisateurs du monde réel ne vivent pas cette transformation à la même vitesse. Selon l’étude METR de 2025, les développeurs chevronnés utilisant l’IA générique étaient 19 % plus lents que leurs homologues qui n’utilisaient pas ces outils. L’étude DORA de 2024 est parvenue à des conclusions similaires : si la genAI a aidé les équipes à accélérer l’examen du code, la qualité du code généré par l’IA était souvent trop faible pour être expédié sans un remaniement majeur.

Il s’agit d’une confrontation avec la réalité. La GenAI n’est pas encore prête à fournir de manière cohérente des performances de bout en bout dans des opérations réelles. Elle apporte une promesse de productivité, mais dans de nombreux cas, les gains réels sont inégaux une fois que vous tenez compte du débogage, de la validation et du nettoyage. Les déclarations des dirigeants peuvent refléter une vision.

En tant que dirigeant, il vous incombe de distinguer le battage médiatique de la valeur utile. Vous devez absolument explorer et investir dans la genAI. Mais si vos équipes vous disent qu’elles n’obtiennent pas de résultats supérieurs à la norme aujourd’hui, ce n’est pas de la résistance, c’est de l’intuition. Au lieu d’exiger un retour sur investissement immédiat, mettez en place une infrastructure guidée, définissez où une surveillance est nécessaire et traitez les demandes de productivité comme des données d’entrée.

Principaux enseignements pour les dirigeants

  • L’IA générative ralentit les développeurs experts : Malgré les attentes, les développeurs expérimentés utilisant des outils d’IA générative ont été 19 % plus lents en raison de la création rapide, de la validation du code et du débogage. Les dirigeants devraient évaluer l’expertise de leur équipe avant de déployer l’IA à grande échelle.
  • Les critères de référence ne reflètent pas le travail réel : Les mesures de performance de l’IA sont basées sur des critères artificiels qui ne correspondent pas aux tâches réelles des développeurs. Pour évaluer les gains de productivité réels, les dirigeants devraient privilégier les retours d’expérience des équipes plutôt que les affirmations des fournisseurs.
  • Le code généré par l’IA doit être nettoyé : Les produits de l’IA générative nécessitent souvent des révisions approfondies pour assurer une structure, une sécurité et une maintenabilité adéquates. Les dirigeants doivent prévoir du temps pour la révision post-génération lors de la planification des flux de travail intégrés à l’IA.
  • Les développeurs juniors risquent de voir leurs compétences s’éroder : La dépendance excessive à l’égard de la genAI réduit les compétences de base des développeurs moins expérimentés qui ne peuvent pas dépanner ou adapter le code. Il est essentiel d’investir dans la formation des développeurs pour prévenir les lacunes à long terme en matière de compétences.
  • La qualité diminue également dans d’autres domaines : L’IA introduit des inefficacités similaires dans la rédaction, le contenu et le travail de connaissance, produisant souvent des résultats peu précis. Les équipes interfonctionnelles devraient mettre en œuvre des étapes d’assurance qualité avant de faire confiance au contenu généré par l’IA.
  • La vision des dirigeants dépasse les résultats opérationnels : L’approbation publique des leaders de l’IA contraste avec les résultats décevants au niveau de l’équipe. Les dirigeants devraient tempérer l’adoption stratégique de l’IA par des contrôles au niveau du flux de travail afin d’éviter les inefficacités d’échelle.

Alexander Procter

septembre 15, 2025

13 Min