Les développeurs utilisent largement l’IA malgré un manque de confiance dans ses résultats

La plupart des développeurs utilisent aujourd’hui l’IA, ou cherchent comment le faire. Selon l’enquête 2025 de Stack Overflow auprès des développeurs, 84 % d’entre eux déclarent utilisent déjà l’IA ou prévoient de le faire. Ce chiffre est en hausse par rapport aux 76 % de l’année précédente. Il est évident que cette vague d’IA dans le développement de logiciels n’est pas prête de s’arrêter. Mais voici le problème : seuls 33 % des développeurs déclarent faire confiance à ce que produit l’IA.

Il y a un fossé entre l’enthousiasme et la confiance. Les développeurs constatent de réels gains de productivité grâce à l’IA, mais les résultats ne sont pas encore à la hauteur des attentes. La plupart des développeurs décrivent les résultats des outils de codage de l’IA comme étant « presque corrects ». Cela peut sembler proche, mais ce n’est pas assez. Les petites erreurs ont des conséquences en aval. Une parenthèse mal placée ou un mauvais appel à l’architecture ne sont pas que du bruit, ils peuvent discrètement entraîner des problèmes de performance, des risques de sécurité ou des délais non respectés.

Les développeurs sont donc pris dans un cercle vicieux : ils utilisent l’IA pour travailler plus rapidement, puis passent du temps à vérifier les résultats pour s’assurer de leur exactitude, de leur précision et de leur sécurité. Pensez à l’ajustement qui s’opère ici. Les développeurs pensaient que l’IA réduirait leur charge de travail de codage. Au lieu de cela, elle les a transformés en superviseurs de l’IA, vérifiant chaque ligne avec soin. Ce n’est pas parce qu’ils n’aiment pas l’automatisation, mais parce qu’ils ont vécu avec les résultats et que les avantages sont assortis de mises en garde.

Pour les dirigeants, ce manque de confiance est important. Vous n’obtiendrez pas un véritable retour sur investissement des outils d’IA si vos développeurs ne sont pas convaincus de pouvoir les utiliser de manière fiable et en toute confiance. S’ils remettent en question chaque résultat, vos gains de productivité sont limités. La leçon à retenir est claire : avant d’étendre l’IA aux équipes de production et d’ingénierie, assurez-vous que le manque de confiance est traité de la même manière que vous géreriez le risque, de manière stratégique et non passive.

Le code généré par l’IA introduit fréquemment des bogues, ce qui accroît la charge de surveillance des développeurs.

Les logiciels construits avec l’aide de l’IA ne sont pas exempts d’erreurs, loin s’en faut. Près de 60 % des responsables de l’ingénierie affirment que la moitié ou plus du code généré par l’IA introduit des bogues. code généré par l’IA introduit des bogues. Il ne s’agit pas de spéculations. Il s’agit d’un retour d’expérience d’équipes qui utilisent déjà ces systèmes à grande échelle. Ce qui était censé être un raccourci finit souvent par devenir une autre tâche : révision, débogage, refonte.

Voici ce que cela signifie concrètement. Lorsqu’un développeur écrit du code, il comprend le contexte, l’objectif commercial, les contraintes des systèmes existants, les bizarreries du produit. Ce n’est pas le cas de l’IA. Ces modèles sont bons pour la syntaxe, mauvais pour le contexte. Ils peuvent assembler un code d’apparence propre qui échoue dans les cas limites ou crée des bogues silencieux dans votre pile. Le développeur finit donc par passer plus de temps à assainir les résultats de l’IA qu’à écrire de nouvelles fonctionnalités.

Ce n’est pas une raison pour retarder l’adoption de l’IA, mais cela signifie que vous devez avoir une vision réaliste de la période de transition. Il y a une courbe d’apprentissage. Les dirigeants doivent s’attendre à des frais généraux à court terme. Les développeurs effectuent davantage de révisions de code, et ce pour les machines, pas seulement pour les humains. Une partie de la productivité revient, mais seulement si l’organisation soutient les développeurs avec une infrastructure de test solide, des protocoles de sécurité clairs et des flux de travail pour filtrer les réponses peu fiables de l’IA.

Les techniciens les plus intelligents que vous avez recrutés jouent à présent le rôle de bâtisseurs et de dernier point de contrôle de la qualité. Si vous vous trompez, vous saperez l’innovation par l’instabilité. Si vous le faites correctement, vous gagnez en rapidité sans compromettre la fiabilité.

Le rôle traditionnel des développeurs évolue pour inclure la supervision et la validation de l’IA

Le travail de l’ingénieur logiciel évolue, et rapidement. Aujourd’hui, les développeurs ne se contentent pas d’écrire du code. Ils examinent, valident et corrigent ce que l’IA écrit. Ils constituent la dernière couche de contrôle de la qualité avant que le code ne soit mis en production. Ils assument également de plus en plus de compétences autrefois considérées comme des niches, telles que l’ingénierie de la rapidité, le réglage des modèles et l’optimisation du flux de travail de l’IA.

Cette évolution est rapide. Selon l’enquête 2025 de Stack Overflow auprès des développeurs, 36 % d’entre eux ont appris à coder au cours de l’année écoulée spécifiquement pour travailler avec l’IA. Il ne s’agit pas non plus de contributeurs juniors. Même les ingénieurs chevronnés se perfectionnent pour gérer l’intégration de l’IA de manière responsable. Il s’agit notamment de repérer les bouts de code non sécurisés que l’IA pourrait suggérer, de s’assurer que le résultat correspond à l’architecture de l’entreprise et de signaler lorsque les recommandations de l’IA ne correspondent pas à la stratégie du produit ou aux besoins du client.

Pour les dirigeants d’entreprises technologiques et de produits, cette évolution représente un choix. Vous pouvez prétendre qu’il s’agit d’une simple mise à niveau d’un outil, ou vous pouvez aider votre équipe à s’adapter correctement. Cela signifie qu’il faut prévoir un budget pour une formation spécifique à l’IA, donner aux équipes l’autonomie nécessaire pour affiner la manière dont elles travaillent avec les outils d’IA et définir des attentes claires en matière de supervision. Lorsque les développeurs disposent du contexte, des compétences et du mandat nécessaires pour superviser l’IA, ils transforment les résultats automatisés en solutions évolutives de qualité production.

À mesure que les outils d’IA deviennent plus intelligents, le coût de la confiance passe de l’écriture du code à sa validation. Le développeur moderne ne se contente plus d’écrire des instructions pour les machines, il guide le comportement des systèmes intelligents dans votre pipeline de produits. Si votre organisation considère cela comme un ajustement opérationnel et non comme un investissement stratégique, vous passerez à côté de l’essentiel.

La création d’applications alimentées par l’IA est de plus en plus un effort multidisciplinaire qui dépasse le rôle des seuls développeurs.

Les développeurs ne sont plus les seuls à créer des logiciels. Les applications alimentées par l’IA nécessitent un écosystème complet de rôles. Les gestionnaires de produits décident où et comment l’IA doit être introduite. Les concepteurs UX se concentrent sur la création d’interfaces qui communiquent clairement le comportement de l’IA. Les scientifiques des données forment les modèles et valident les résultats. Les ingénieurs chargés de l’application des messages mettent au point les interactions entre les modèles. Les équipes de sécurité et d’assurance qualité évaluent les performances et la conformité.

Cette vaste collaboration existe pour une raison : l’IA ne comprend pas votre entreprise. Elle ne comprend pas les priorités des clients, les risques opérationnels ou l’exposition aux réglementations. Cette connaissance est le fruit de l’humain. La réussite d’un produit d’IA dépend de l’alignement de l’expertise humaine à travers les fonctions pour superviser et façonner ce que l’IA apporte.

Pour les dirigeants qui supervisent des initiatives en matière de logiciels ou d’IA, deux choses sont importantes : la clarté et la responsabilité. Qui est responsable de quoi ? Que se passe-t-il lorsqu’une recommandation non sécurisée passe inaperçue ? Qui confirme qu’une fonctionnalité suggérée par l’IA correspond aux besoins de l’utilisateur ? Lorsque vous définissez cela clairement à travers le produit, l’ingénierie et la conception, vous réduisez les points d’échec, accélérez la livraison et améliorez la confiance de l’utilisateur final.

Cela modifie également les priorités en matière de recrutement. Vous ne recherchez pas seulement de bons développeurs. Vous avez besoin de développeurs capables de communiquer avec les scientifiques des données. Vous avez besoin de gestionnaires de produits qui comprennent ce que l’IA peut et ne peut pas faire. L’investissement dans la collaboration inter-silo devient un multiplicateur de force, la pile d’IA ne fonctionne pas si chaque rôle opère en vase clos.

Les développeurs jouent le rôle d’orchestrateurs, intégrant les données provenant de différents rôles afin de s’assurer que les résultats de l’IA sont prêts pour la production.

Le développeur d’aujourd’hui fait bien plus que coder. Il joue un rôle central dans l’intégration, la validation et la mise en production des composants de l’IA. Ce sont les développeurs qui traduisent la logique commerciale, les exigences du produit et les contraintes du système en un logiciel fonctionnel, et ils le font maintenant en gérant l’imprévisibilité des résultats générés par l’IA.

Les modèles d’IA ne considèrent pas le système dans son ensemble. Ils ne comprennent pas les contraintes architecturales ou les systèmes existants. Ils ne sont pas conscients de la logique interne propre à votre organisation. Les développeurs, eux, le sont, et ce contexte est essentiel. Il permet de savoir ce qui doit être conservé, ce qui doit être réécrit et où des mesures de protection doivent être ajoutées. L’IA peut obtenir la bonne syntaxe, c’est souvent le cas, mais elle ne comprend pas comment un produit fonctionne de bout en bout.

Les développeurs sont donc au centre du dispositif et assurent la coordination entre les différents domaines. Ils mettent en œuvre les modèles guidés par les scientifiques des données. Ils ajustent le comportement de l’utilisateur en fonction des directives des concepteurs. Ils appliquent les pratiques de sécurité, l’auditabilité et la fiabilité des performances. Et ils le font rapidement, sans compromettre la qualité.

Si vous voulez de la rapidité, il vous faut de la discipline. Si vous voulez de l’innovation, vous avez besoin de contrôle. Les développeurs fournissent les deux, lorsqu’ils disposent des outils, du contexte et de l’autorité nécessaires. Pour les cadres dirigeants des équipes de produits et d’ingénierie, l’accent doit être mis sur la manière de soutenir les développeurs dans ce rôle élargi. Il ne s’agit pas seulement de leur donner accès à l’IA, mais de leur permettre de gérer la manière dont les résultats de l’IA sont façonnés, vérifiés et intégrés dans des systèmes complets.

Les entreprises obtiennent des avantages tangibles lorsqu’elles confient aux développeurs le rôle de leaders en matière d’IA.

Lorsque les entreprises confient aux développeurs la pleine responsabilité de l’utilisation de l’IA, les résultats s’améliorent. Les développeurs qui utilisent l’IA quotidiennement font état d’une expérience bien plus positive que ceux qui l’utilisent occasionnellement. Les données de Stack Overflow pour 2025 montrent que 88 % des utilisateurs quotidiens de l’IA voient ces outils d’un œil favorable, contre 64 % pour ceux qui les utilisent chaque semaine. Ce niveau d’engagement favorise la confiance, les compétences et une meilleure compréhension du moment et de la manière de faire confiance aux résultats de l’IA.

C’est une question de leadership. Les développeurs qui sont formés, soutenus et à qui l’on fait confiance pour diriger les interactions avec l’IA sont plus à même de gérer les risques et d’optimiser l’impact. Ils savent quelles tâches doivent être confiées à l’IA et lesquelles nécessitent un jugement humain. Ils savent comment examiner efficacement les suggestions de l’IA et ils mettent en place des boucles de rétroaction immédiates pour éviter les problèmes récurrents.

Pour les dirigeants, la voie la plus rentable n’est pas l’automatisation seule. Il s’agit d’une habilitation ciblée. Les développeurs ne doivent pas être considérés comme des acteurs secondaires de l’IA. Ils devraient être positionnés comme ses opérateurs les plus critiques, parce qu’ils le sont. Les organisations qui tirent profit de l’IA ne le font pas en écartant les développeurs des décisions clés. Elles le font en les élevant au niveau supérieur.

Votre investissement dans l’IA n’évoluera que si les personnes qui l’utilisent sont qualifiées, soutenues et responsabilisées. L’expérience des développeurs avec l’IA en dit plus long sur votre productivité future que n’importe quelle démonstration d’IA. Si vos équipes ne savent pas quand cesser de faire confiance au modèle, vous n’êtes pas prêt à passer à l’échelle supérieure.

Pour instaurer la confiance dans le code de l’IA, il faut des contrôles structurés, une surveillance humaine et une définition claire des rôles.

On ne fait pas évoluer les systèmes d’IA par défaut, on les fait évoluer en fonction de leur structure. La confiance dans l’IA ne provient pas uniquement des capacités du modèle. Elle provient du cadre qui entoure le modèle : tests automatisés, examens de code dirigés par des humains, mise en place d’une charpente cohérente, pistes d’audit et évaluation de la confiance. Ce sont ces éléments qui transforment la génération de code expérimental en livraison de logiciels reproductibles et sûrs.

De nombreuses équipes sous-estiment cet aspect. Elles supposent que la fiabilité de l’IA s’améliore avec l’augmentation de son utilisation. Ce n’est pas le cas, pas sans des points de contrôle humains et une vérification au niveau du système. Les équipes qui sautent cette étape finissent par résoudre des problèmes opérationnels plus tard, des performances lentes, des vulnérabilités en matière de sécurité, des fonctionnalités instables. Les systèmes construits sur la base de suggestions d’IA nécessitent toujours une responsabilisation. Quel membre de l’équipe est responsable du résultat final ? Qui vérifie avant la publication ? Qui signale les divergences entre ce que l’IA a produit et ce qui est nécessaire ?

C’est là que le leadership joue un rôle. Vous devez définir les responsabilités à chaque étape du processus de développement. Si un modèle propose une mise en œuvre, quelqu’un doit être chargé de l’examiner en fonction des exigences techniques et des normes de l’organisation. Si une fonction du produit dépend de la logique de l’IA, un validateur humain doit clairement confirmer que cette logique fonctionne comme prévu. Si ce n’est pas le cas, vous introduisez des points de défaillance qui accumulent les risques au fil du temps.

Sur le plan opérationnel, cela signifie également qu’il faut prendre le temps de concevoir un processus de révision avant d’étendre vos initiatives en matière d’IA. Instaurez une culture de révision claire dès maintenant, sinon vous devrez faire face à des cycles réactifs plus tard. La qualité n’émerge pas des outils de productivité, mais de la discipline qui entoure l’utilisation de ces outils.

La fiabilité à long terme de l’IA dans le développement de logiciels dépend de l’investissement dans des personnes qualifiées et compétentes.

La qualité de l’IA dépend des personnes qui la soutiennent. Les véritables avantages des outils de codage de l’IA sont obtenus lorsque vous les associez à des développeurs expérimentés, à des gestionnaires de produits informés et à des équipes ciblées qui savent ce qu’elles font. Les modèles peuvent être rapides, mais ils ne produiront pas de résultats sûrs ou utilisables sans jugement. Ce jugement ne provient pas de l’automatisation, mais de l’expertise humaine.

L’infrastructure ne suffit pas à résoudre ce problème. Vous y parviendrez en investissant dans les talents. Les organisations qui donnent la priorité à la maîtrise de l’IA dans les équipes d’ingénierie, de conception, de produit et de sécurité seront plus performantes que les autres sur le long terme. Ce n’est pas simplement une question d’effectifs. Il s’agit de constituer des équipes qui savent comment appliquer l’IA de manière efficace, mettre à jour leurs approches rapidement et combler les lacunes laissées par les modèles.

Le développement des compétences doit être mesurable. Les programmes de formation ne doivent pas se concentrer uniquement sur l’instruction technique, ils doivent également enseigner aux développeurs comment vérifier le code de l’IA, remettre en question les décisions prises par l’IA et comprendre quand différer l’automatisation. C’est ce qui rend les gens efficaces dans les rôles assistés par l’IA. Lorsque vos équipes sont des utilisateurs confiants, elles agissent plus rapidement, prennent de meilleures décisions techniques et peuvent les expliquer, sans créer de risque ou de dérive.

Pour les dirigeants qui se concentrent sur les résultats, c’est le point principal : Les capacités d’IA n’équivalent pas à des capacités de produit si vos équipes ne savent pas les gérer. Sans investissement dans le personnel, l’automatisation ne fait qu’augmenter l’inefficacité.

Les développeurs se transforment en copilotes de l’IA et en gardiens de la confiance dans le processus de développement logiciel.

Le rôle du développeur ne se limite plus à l’ingénierie et à la mise en œuvre. Les développeurs agissent désormais comme des navigateurs en direct du comportement de l’IA à l’intérieur des pipelines logiciels critiques. Ils vérifient les résultats de l’IA, affinent la structure des suggestions de code et alignent continuellement les résultats générés par les machines sur la logique de l’entreprise, les objectifs du produit et les exigences de conformité.

La confiance dans l’IA ne vient pas de l’IA elle-même. Elle vient des développeurs qui interprètent et valident les résultats de l’IA. Ce changement n’est pas superficiel, il est fondamental. Les développeurs sont désormais responsables du contrôle de la qualité à l’intersection de l’automatisation et de l’intention humaine. Ils constituent la couche de responsabilité qui détermine si les résultats d’un modèle d’IA peuvent être utilisés en toute sécurité, s’ils correspondent à la conception du système et s’ils reflètent le bon comportement du produit.

Il ne s’agit pas d’un rôle temporaire, mais d’une évolution fonctionnelle. Les développeurs assument de nouvelles responsabilités car, sans eux, les logiciels basés sur l’IA ne répondent pas aux critères de fiabilité nécessaires à l’échelle de l’entreprise. Les systèmes d’IA peuvent suggérer du code et compléter des schémas logiques. Mais ils ne comprennent toujours pas l’architecture, l’impact sur les utilisateurs et l’évolution des exigences réglementaires. C’est le contexte qui détermine la fiabilité du code.

Du point de vue du leadership, cela signifie que vos équipes de développeurs ne sont plus seulement des contributeurs à l’efficacité. Elles sont au cœur de la gestion des risques, de la qualité et de la rapidité des systèmes intégrés à l’IA. Si vous voulez construire des systèmes fiables à grande échelle, vous devez donner aux développeurs l’autorité et la clarté nécessaires pour agir en tant que propriétaires, et pas seulement en tant qu’exécutants, de produits alimentés par l’IA.

C’est là que l’avenir est déjà en train d’atterrir. Il ne s’agit pas d’éliminer les développeurs de la boucle. Il s’agit de renforcer leur rôle en tant que dernier kilomètre d’intelligence, là où cela compte le plus : dans la production, la sécurité et la confiance.

En conclusion

L’IA ne remplace pas vos développeurs, elle réoriente leur travail. Le changement en cours ne concerne pas seulement l’accélération de la production de code. Il s’agit d’attentes plus élevées en matière de qualité, de contexte et de contrôle. Les outils automatisés n’apportent une réelle valeur ajoutée que lorsque les personnes qui les utilisent comprennent comment et quand intervenir. Cela signifie qu’il faut constituer des équipes dotées des compétences, de la discipline et de l’autorité nécessaires pour gérer à la fois la vitesse et la sécurité.

Pour les décideurs, la clé est l’alignement : entre les outils et les processus, entre le potentiel de l’IA et la supervision humaine, et entre l’exécution technique et l’impact sur l’entreprise. Si vous investissez dans les bonnes personnes et que vous structurez les bons garde-fous, l’IA devient un multiplicateur de force. Si vous sautez ces étapes, vous augmentez les risques aussi rapidement que les performances.

Les entreprises qui gagnent actuellement avec l’IA ne sont pas celles qui automatisent le plus. Ce sont celles qui réfléchissent clairement à ce qui vaut la peine d’être automatisé, à ce qui ne l’est pas, et à qui incombe la responsabilité de cette décision. La définition d’un bon logiciel n’a pas changé. Mais la façon dont nous les construisons, et les personnes qui guident ce processus, ont changé.

Alexander Procter

septembre 19, 2025

18 Min