L’utilisation des outils d’IA par les développeurs augmente alors que la confiance diminue
Les développeurs utilisent l’IA plus que jamais, mais leur confiance en elle va dans la direction opposée. L’enquête 2025 de Stack Overflow auprès des développeurs montre que 84 % d’entre eux utilisent ou prévoient d’utiliser des outils d’IA. développeurs utilisent ou prévoient d’utiliser des outils d’IA. Pourtant, seuls 29 % d’entre eux déclarent faire confiance à ces outils, soit une baisse de 11 points par rapport à l’année précédente. Plus qu’une statistique, il s’agit d’un signal. La technologie évolue plus vite que la confiance qu’on lui accorde.
Un taux d’adoption élevé avec une faible confiance signifie une opportunité pour les dirigeants qui agissent de manière décisive. Les développeurs ne rejettent pas l’IA, ils la testent, mesurent sa fiabilité et attendent la preuve qu’elle peut répondre aux normes professionnelles. La confiance ne naît pas du battage médiatique. Elle naît de la performance, de la transparence et de la constance des résultats. Les organisations qui combleront ce déficit de confiance seront celles qui seront en mesure d’étendre l’IA à des systèmes complexes avec moins de résistance et de meilleurs résultats.
Les dirigeants doivent considérer ce changement comme un défi stratégique de premier plan, et non comme un simple détail opérationnel. Si vos équipes comptent sur l’IA pour accélérer la production, vous devez d’abord vous assurer qu’elles ont confiance dans ce qu’elle produit. La confiance favorise l’adoption, qui stimule la vitesse d’innovation. Que votre organisation crée des logiciels ou intègre l’IA dans des processus existants, l’instauration de cette confiance est désormais un investissement direct dans la productivité et la compétitivité à long terme.
La confiance dans les outils d’IA est minée par leur nature probabiliste et incohérente
Les développeurs viennent d’un monde de systèmes prévisibles. Dans le domaine du génie logiciel, une même entrée doit toujours produire la même sortie. L’IA déroge à cette règle. Elle ne garantit pas la cohérence, elle génère des solutions basées sur la probabilité. La même demande peut produire plusieurs réponses valides mais différentes. Ce n’est pas un défaut ; c’est ainsi que ces modèles fonctionnent. Mais cela va à l’encontre des attentes des développeurs en matière de précision et de reproductibilité.
Les dirigeants doivent bien comprendre cette distinction. Les outils d’IA ne sont pas des systèmes déterministes ; ce sont des systèmes dynamiques formés à partir de grandes quantités de données. Ils peuvent fournir plusieurs réponses correctes structurées de différentes manières. Cette variabilité est précieuse, mais elle peut aussi rendre les ingénieurs hésitants, en particulier lorsque les systèmes de production dépendent de résultats exacts. Lorsque la confiance diminue, c’est souvent parce que les équipes s’attendent à ce que les anciennes règles s’appliquent aux nouveaux outils.
Le rôle des dirigeants est de définir de nouvelles attentes et d’adapter les normes de performance à ce nouveau type de technologie. Fixez des limites là où la prévisibilité est essentielle, et donnez à l’IA l’espace nécessaire pour agir là où l’exploration et la créativité sont plus importantes. Cet équilibre créera la confiance. Une fois que les ingénieurs auront appris quand et comment se fier à la nature probabiliste de l’IA, la confiance deviendra une question de compétence.
Il s’agit d’un défi de gestion autant que d’un défi technique. Les dirigeants doivent revoir les mesures de la qualité pour les adapter aux systèmes probabilistes et veiller à ce que les équipes disposent de méthodes pour contrôler les écarts sans rejeter l’innovation. Les organisations qui s’adapteront les premières à ce nouveau paradigme seront à la tête de la prochaine phase d’automatisation et de développement de logiciels intelligents.
Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.
Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.
Les hallucinations de l’IA affaiblissent considérablement la confiance des développeurs
Les outils de codage de l’IA peuvent produire des résultats qui semblent corrects mais qui ne le sont pas. Les développeurs rencontrent régulièrement des extraits de code générés par l’IA qui font référence à des bibliothèques obsolètes, à des méthodes obsolètes ou à des API inexistantes. Certains résultats contiennent des failles de sécurité subtiles qui sont difficiles à détecter lors d’un premier examen. Ces erreurs nuisent à la fiabilité et rendent la vérification humaine obligatoire pour chaque contribution générée par l’IA. Lorsque la vérification prend autant de temps que le codage manuel, les gains de productivité disparaissent.
Les dirigeants doivent traiter cette question comme un problème de gouvernance et de contrôle de la qualité, et non comme une simple limitation technique. Les équipes responsables de systèmes à fort enjeu (finances, soins de santé, infrastructures) ne peuvent pas se permettre d’utiliser du code non vérifié. Le moindre faux pas peut avoir de graves conséquences en termes d’exploitation, de réglementation et de réputation. Les développeurs le savent et leur comportement prudent est rationnel dans ce contexte.
Les organisations qui veulent faire confiance à l’IA doivent s’assurer que des cadres de validation et des procédures de test robustes sont en place. Les tests de code automatisés, les outils d’analyse statique et les processus d’examen spécifiques aux résultats générés par l’IA sont essentiels. L’élimination des risques d’hallucination nécessite une rigueur au niveau du système, et pas seulement une diligence individuelle. Lorsque les équipes constateront que les cadres de vérification détectent et corrigent systématiquement les erreurs d’IA, leur confiance dans l’utilisation de ces outils augmentera.
Les chefs d’entreprise doivent comprendre que les hallucinations de l’IA resteront un défi à court terme. La clé est d’établir des processus d’examen cohérents qui maintiennent un niveau de qualité élevé tout en offrant les avantages des outils de codage de l’IA en termes de rapidité. Si la vérification devient prévisible et efficace, la confiance dans les flux de travail alimentés par l’IA augmentera proportionnellement.
La méconnaissance des outils d’IA et les lacunes en matière de compétences amplifient la méfiance.
De nombreux développeurs admettent qu’ils sont encore en train d’apprendre à utiliser l’IA de manière efficace. Ils se demandent si leurs techniques d’incitation sont suffisamment efficaces ou si les erreurs de l’IA sont dues à de mauvaises entrées ou à des défauts inhérents au modèle. Ce manque de certitude engendre l’hésitation. Ce qui est souvent interprété comme de la méfiance est en fait un manque de confiance et de capacité, une phase d’apprentissage que toute nouvelle technologie apporte.
Pour les dirigeants, il s’agit d’une voie claire : combler le déficit de compétences par une formation structurée et des programmes d’habilitation ciblés. Les développeurs doivent être formés non seulement à l’efficacité des messages-guides, mais aussi à l’évaluation des résultats de l’IA, à l’élaboration de flux de validation et à l’intégration de ces résultats dans les systèmes de production. La formation devrait mettre l’accent sur le développement de la pensée critique, l’évaluation de l’exactitude du code, la compréhension des limites et l’affinement des messages-guides pour atteindre la précision.
Investir dans la maîtrise de l’IA dans les équipes d’ingénieurs n’est pas une initiative secondaire, c’est une initiative fondamentale. Les entreprises qui accélèrent cette courbe d’apprentissage amélioreront à la fois la confiance et les performances. Les développeurs qui comprennent les mécanismes de l’IA sont beaucoup plus à l’aise pour l’appliquer à un travail significatif. Au fur et à mesure que l’expertise s’accroît, l’incertitude diminue et la dépendance à l’égard des mesures de protection manuelles peut être remplacée par une assurance axée sur les processus.
Pour les dirigeants, l’investissement à court terme dans l’amélioration des compétences est rentable à long terme. Une main-d’œuvre maîtrisant l’IA devient plus autonome, plus adaptable et plus productive. Les dirigeants devraient donner la priorité à la formation continue et intégrer la maîtrise de l’IA dans leurs objectifs de développement professionnel afin de réduire les craintes, d’accroître la confiance et d’établir une maturité technologique au sein des équipes.
Les craintes liées à la sécurité de l’emploi contribuent à la méfiance à l’égard des outils de codage de l’IA
Les développeurs s’interrogent sur la manière dont les outils de codage de l’IA affecteront leur rôle. Beaucoup voient l’automatisation se développer rapidement dans les fonctions techniques et se demandent discrètement si ces outils ne risquent pas de réduire la valeur de leurs compétences. Ces préoccupations ne sont pas seulement émotionnelles, elles sont enracinées dans des années de discussions sectorielles sur la perturbation de la main-d’œuvre par la technologie. Il en résulte une hésitation à faire pleinement confiance ou à se fier à quelque chose qui semble capable de remplacer des aspects essentiels de leur travail.
Pour les dirigeants, il s’agit d’un signal culturel essentiel. La peur du remplacement peut ralentir l’innovation et réduire les taux d’adoption, même lorsque la technologie est techniquement valable. L’objectif ne devrait pas être de réduire les coûts de main-d’œuvre grâce à l’IA ; il devrait être d’accroître les capacités humaines grâce à l’augmentation. Les développeurs qui comprennent que l’IA est un complément, et non un concurrent, l’utiliseront avec plus de confiance et de créativité.
Une communication claire est essentielle. Les dirigeants doivent expliquer comment l’IA s’inscrit dans la stratégie à long terme de l’entreprise en matière de capital humain. Cela signifie qu’il faut être explicite sur la valeur du jugement humain, de la responsabilité et de la surveillance. Lorsque les équipes constatent que l’IA élève leur rôle au lieu de l’éliminer, la confiance s’installe naturellement. Il ne s’agit pas seulement d’une question de moral, mais d’une exigence stratégique. Sans confiance, l’adoption stagne et l’innovation perd de sa vitesse.
La direction doit gérer cette crainte par la transparence et la progression des compétences. L’élaboration de politiques qui reconnaissent et récompensent l’utilisation responsable de l’IA envoie un message fort : ceux qui apprennent et exploitent l’IA de manière efficace auront des perspectives de carrière plus solides, et non plus faibles. Transformez l’appréhension en motivation en présentant l’adoption de l’IA comme une voie vers une nouvelle expertise et un nouveau leadership au sein de l’entreprise.
Le scepticisme à l’égard de l’IA reflète une culture de normes d’ingénierie élevées
La prudence des développeurs n’est pas de la résistance, c’est de la discipline. Dans le domaine du génie logiciel, la précision, la sécurité et la maintenabilité sont des valeurs fondamentales. Lorsque de nouveaux outils entrent dans le flux de travail, ils sont testés par rapport à ces valeurs. Les développeurs appliquent à l’IA le même examen minutieux qu’à toute technologie capable de toucher le code de production. Leur scepticisme témoigne donc de leur professionnalisme et de leur souci de la qualité à long terme.
Comme l’a expliqué Prashanth Chandrasekar, PDG de Stack Overflow, lors d’une discussion avec Romain Huet, responsable de l’expérience des développeurs chez OpenAI, les outils ne sont pas responsables des résultats, ce sont les développeurs qui le sont. Il a insisté sur le fait que les ingénieurs doivent comprendre le fonctionnement de leurs outils et assumer l’entière responsabilité de leur utilisation. Ce principe renforce la raison pour laquelle les équipes les plus performantes continuent de remettre en question l’IA jusqu’à ce qu’elle réponde à leurs normes de cohérence et de fiabilité.
Les dirigeants devraient considérer ce scepticisme comme un atout. C’est la preuve d’une culture d’ingénierie mature qui privilégie la responsabilité à la commodité. Les organisations qui encouragent cet état d’esprit produiront en fin de compte des systèmes plus sûrs et plus fiables. Plutôt que de précipiter l’adoption, elles veilleront à ce que l’intégration de l’IA s’accompagne de tests minutieux, d’une gouvernance transparente et d’une attention particulière portée aux performances mesurables.
Pour les dirigeants, le défi consiste à trouver un équilibre. La surveillance ne doit pas se transformer en barrages routiers. Établissez des processus qui préservent les normes tout en encourageant l’expérimentation et l’itération. Cette combinaison de rigueur et d’exploration crée une confiance durable. Lorsque les développeurs savent que leur direction accorde de l’importance à la précision et à l’innovation, ils s’engagent plus profondément dans l’utilisation des outils d’IA et accélèrent les progrès techniques de l’organisation.
La confiance et l’évolutivité des organisations dépendent de l’intégration et de la transparence du système.
Au niveau de l’entreprise, la confiance dans l’IA augmente lorsque les systèmes, la gouvernance et la responsabilité sont alignés. Lorsque ces éléments font défaut, l’adoption se heurte à un plafond. Les équipes peuvent utiliser l’IA dans le cadre de projets pilotes ou d’expériences isolées, mais il devient difficile de l’étendre à l’ensemble des services. Les responsables de la sécurité hésitent à approuver les outils lorsque la gouvernance des données n’est pas claire. Les unités juridiques et de conformité s’y opposent à moins de pouvoir retracer la manière dont les modèles traitent et stockent les informations. Sans transparence, les progrès ralentissent.
Les dirigeants doivent considérer la confiance comme une exigence structurelle. Les organisations ne peuvent pas développer l’IA si son utilisation n’est pas vérifiable, documentée et explicable. Cela signifie qu’il faut développer des cadres internes qui définissent l’accès aux données, la surveillance des modèles et les procédures d’audit. Les entreprises doivent également veiller à ce que les systèmes d’IA puissent se connecter à des bases de connaissances internes curées qui reflètent des données institutionnelles vérifiées. Cet équilibre entre les capacités de l’IA et l’apport humain structuré garantit la fiabilité et réduit les risques.
Uber fournit un exemple clair avec Genie, un assistant d’IA qui résout les questions techniques dans Slack. Genie combine les modèles d’OpenAI avec la base de connaissances d’Uber, Stack Internal. Le système peut indiquer l’origine de chaque réponse, ce qui permet aux ingénieurs d’en valider l’exactitude avant d’agir. En intégrant la traçabilité et l’attribution dans le flux de travail, les ingénieurs d’Uber ont augmenté à la fois l’adoption et la confiance, prouvant que la transparence alimente l’échelle.
Pour les dirigeants, il s’agit d’un mandat opérationnel. La confiance dans l’IA ne s’accroît que lorsque les équipes peuvent évaluer les décisions des modèles en temps réel. La transparence, la gouvernance et l’intégration des données internes doivent évoluer ensemble. Ceux qui adoptent cette approche éviteront les frictions liées à la conformité, amélioreront l’adoption par les équipes techniques et réaliseront des gains de productivité mesurables grâce à une mise à l’échelle responsable.
L’instauration de la confiance dans l’IA nécessite un développement délibéré des compétences et un changement culturel.
Pour combler le déficit de confiance dans l’IA, les organisations doivent investir dans le personnel autant que dans la technologie. Les développeurs ont besoin de compétences spécifiques, de messages-guides efficaces, d’une évaluation des résultats des modèles et de tests rigoureux. Les dirigeants doivent créer des cultures où l’augmentation de l’IA est normalisée, mais jamais incontrôlée. La confiance se développe lorsque les compétences, les processus et l’état d’esprit progressent ensemble.
Les dirigeants jouent un rôle central dans cette transition. Ils doivent veiller à ce que leur entreprise mette en place des systèmes de responsabilité structurés pour le code généré par l’IA. Il s’agit notamment d’annoter les segments de code provenant de l’IA, d’attribuer la responsabilité de l’examen et de concevoir des flux de travail d’approbation adaptés aux systèmes probabilistes. Avant d’être déployés, les résultats de l’IA devraient faire l’objet d’un examen aussi minutieux, voire plus minutieux, que les codes générés par des humains.
La formation doit être continue. Les équipes doivent être encouragées à améliorer leur maîtrise de l’IA par le biais d’ateliers, de mentorat et de projets guidés. La reconnaissance ne doit pas porter sur le volume d’utilisation de l’IA, mais sur les résultats qualitatifs qui associent une supervision humaine claire à une amélioration mesurable de la vitesse ou de la précision. C’est par le renforcement culturel, en reconnaissant la collaboration responsable et efficace entre l’homme et l’IA, que la confiance s’installe.
Pour les dirigeants, la voie à suivre ne se limite pas à l’optimisation des processus. Renforcer la confiance de l’organisation dans l’IA signifie créer un environnement où l’apprentissage et l’expérimentation sont protégés. Au fil du temps, cet état d’esprit transforme l’hésitation en confiance. Lorsque les développeurs et les gestionnaires acquièrent une compréhension et une compétence communes, l’IA passe d’un risque perçu à un atout fiable qui stimule la productivité et l’avantage stratégique.
Le manque de confiance dans l’IA représente une phase de transition vers une collaboration plus étroite entre l’homme et l’IA.
Le manque de confiance actuel n’est pas un échec ; il s’agit d’une étape dans l’intégration d’une nouvelle technologie qui modifie la façon dont les développeurs travaillent. Le scepticisme des développeurs montre qu’ils sont soucieux de précision, de fiabilité et de qualité à long terme. Ils veulent la preuve que les systèmes d’IA peuvent répondre à leurs normes professionnelles. Cet état d’esprit témoigne de la maturité de la communauté des ingénieurs plutôt que d’une résistance au changement. Au fil du temps, à mesure que les équipes affinent leur compréhension des capacités et des limites de l’IA, la confiance se renforcera naturellement grâce à l’expérience et à des résultats mesurables.
Pour les cadres, ce moment est stratégique. Il exige de la patience, de la persévérance et un plan clair pour développer les compétences dans l’ensemble de l’organisation. L’IA n’atteindra pas son plein potentiel par le seul biais d’un déploiement rapide. Elle atteint ce point lorsque le personnel comprend parfaitement quand et comment l’utiliser efficacement. La confiance s’installe lorsque les personnes constatent que l’IA les assiste sans compromettre la responsabilité. Lorsque les équipes s’approprient à la fois les résultats et le processus, la confiance dans la technologie se stabilise.
Prashanth Chandrasekar, PDG de Stack Overflow, a résumé ce principe lors d’une discussion avec Romain Huet, responsable de l’expérience des développeurs chez OpenAI. Il a insisté sur le fait que les ingénieurs doivent continuer à maîtriser à la fois les principes fondamentaux du développement logiciel et les nouvelles compétences requises pour utiliser l’IA de manière responsable. Son message était clair : l’avenir de l’industrie appartient à ceux qui comprennent ce qui se cache derrière la technologie avant de l’intégrer dans des systèmes critiques.
Les dirigeants doivent considérer le manque de confiance comme un processus d’ajustement normal plutôt que comme un obstacle. Le passage à une collaboration efficace entre l’homme et l’IA exige que les dirigeants alignent la formation, les attentes et les cadres de gouvernance sur l’apprentissage continu. Le scepticisme diminue au fur et à mesure que les compétences se développent. Une fois que les organisations ont institutionnalisé le partage des connaissances et l’expérimentation responsable, elles remplacent l’incertitude par une confiance disciplinée, transformant une période de transition en une base pour une force concurrentielle à long terme.
Récapitulation
Les décideurs se trouvent à un point critique de l’évolution des organisations d’ingénierie avec l’IA. Le manque de confiance entre les développeurs et les outils d’IA n’est pas un recul, c’est un signal. Il est le reflet d’une industrie qui privilégie la responsabilité à la rapidité et la précision à la commodité. C’est cet état d’esprit qui définira le succès à long terme.
Les dirigeants qui souhaitent mener à bien ce changement doivent se concentrer sur trois points : la compétence, la responsabilité et la transparence. La compétence permet de s’assurer que les personnes comprennent comment utiliser l’IA de manière efficace. La responsabilité permet de retracer chaque résultat à partir d’une décision ou d’une personne. La transparence élimine la peur et la remplace par une confiance éclairée.
L’intégration de l’IA ne consiste plus à savoir qui l’adopte le plus rapidement, mais qui l’intègre le plus intelligemment. Les entreprises qui investissent pour comprendre comment la confiance se crée dans les équipes techniques passeront de l’expérimentation à l’innovation évolutive. Lorsque les ingénieurs font confiance aux systèmes avec lesquels ils construisent, ils étendent cette confiance à l’ensemble de l’organisation, transformant l’incertitude en avantage concurrentiel.
Seul un leadership discipliné permettra de combler le déficit de confiance dans l’IA. Cela signifie qu’il faut donner la priorité à la formation, mettre en place une gouvernance qui soutient l’expérimentation et veiller à ce que l’élément humain reste central. L’IA ne réussit pas toute seule ; elle réussit lorsque les gens l’utilisent avec clarté et conviction.
Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.
Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.


