Les entreprises technologiques exagèrent les capacités des systèmes d’IA générative

Soyons réalistes sur ce qui se passe dans le domaine de l’IA. Il existe un décalage important entre ce que les entreprises technologiques commercialisent et ce que les systèmes d’IA générative sont réellement capables de faire. Si vous avez regardé Google I/O cette année, ou l’événement Build de Microsoft, vous avez entendu des promesses concernant des outils d’IA comme Gemini et Copilot qui résoudront des défis commerciaux à spectre complet, rédigeront des contrats juridiques, géreront des tâches complexes, ou même remplaceront la prise de décision humaine en temps réel. Cela semble impressionnant. Mais ce n’est pas fondé sur la réalité actuelle de la technologie.

Ces systèmes, qu’il s’agisse de Gemini, ChatGPT ou Claude, sont alimentés par de grands modèles linguistiques. Les LLM ne « pensent » pas comme les gens. Ils ne comprennent pas la logique, le contexte ou les implications de ce qu’ils disent. Il s’agit essentiellement de systèmes de reconnaissance de modèles. Ils examinent d’énormes ensembles de données, déterminent quels mots ont tendance à suivre d’autres mots et génèrent des chaînes de texte qui semblent plausibles. Il s’agit de statistiques, pas de réflexion.

Ce à quoi nous assistons, c’est à une surextension massive. Ces outils sont intégrés aux moteurs de recherche, aux applications de productivité, aux flux de travail juridiques et aux opérations de service à la clientèle. Ils sont présentés comme des collaborateurs intelligents, mais ce discours est trompeur. Ils peuvent aider, oui. Mais il ne s’agit pas de systèmes dotés d’une véritable compréhension ou d’une véritable responsabilité. C’est important, surtout lorsque vous prenez des décisions critiques qui peuvent avoir un impact sur des millions de clients ou des milliards de chiffre d’affaires.

Les cadres doivent considérer ces outils pour ce qu’ils sont : des systèmes d’autocomplétion sophistiqués. Utiles ? Potentiellement. Ils peuvent changer la donne ? Pas sans une supervision humaine et une compréhension claire des limites de la technologie. À l’heure actuelle, l’engouement pour l’IA repose en grande partie sur une confiance infondée. Les dirigeants intelligents verront cela et déploieront l’IA avec intention, et non de manière impulsive.

Les outils d’IA générative produisent souvent des informations inexactes ou fabriquées.

Ce n’est pas seulement que les outils d’IA ne sont pas parfaits, c’est qu’ils ne savent même pas quand ils se trompent. Et ils ne vous disent pas quand c’est le cas. C’est un grave problème si vous les utilisez dans des contextes juridiques, financiers ou techniques. En effet, lorsque ces outils se trompent, ils se trompent généralement beaucoup, et avec une confiance absolue.

Prenez des exemples concrets. Anthropic, l’entreprise à l’origine du chatbot Claude, a fait fabriquer par sa plateforme une citation juridique qui s’est retrouvée dans un dossier judiciaire. Résultat ? Des excuses publiques et une perte de crédibilité. Une semaine plus tôt, un juge californien avait signalé plusieurs arguments juridiques générés par l’IA comme étant totalement inexacts. Une autre entreprise a découvert que son outil d’assistance à la clientèle alimenté par l’IA générait de fausses politiques d’entreprise. Il ne s’agit pas de rares cas isolés. C’est ce qui se passe en ce moment même, et cela se multiplie.

Il y a aussi la question de la confiance. Ces modèles ne se contentent pas de vous donner des informations erronées, ils vous les livrent sur le même ton que lorsqu’ils ont raison. Cela donne à vos équipes un faux sentiment de certitude et ouvre la porte à des responsabilités que vous ne pouvez pas vous permettre d’absorber. Vous ne pouvez pas vous permettre de conclure un contrat, de mettre en production une ligne de code ou d’approuver un document lié à la conformité sur la base d’un modèle d’IA qui n’a aucune compréhension des faits, mais seulement des suppositions statistiques.

L’essentiel est simple. Ces outils vous donneront une réponse précise. Mais parfois, cette réponse est une fiction. Et à l’heure actuelle, les systèmes ne sont pas capables de distinguer le vrai du faux. Il ne s’agit pas d’un bogue logiciel. C’est la façon dont ils fonctionnent. C’est l’architecture.

Les cadres, en particulier ceux des fonctions juridiques, de conformité et d’ingénierie, doivent réfléchir clairement à cette question. Utilisez l’IA comme un outil et non comme une source de vérité. Intégrez des cycles d’examen humain. Prévoyez des processus de vérification. Car chaque fois qu’une hallucination générée par l’IA – oui, c’est l’euphémisme utilisé dans l’industrie – se retrouve dans vos systèmes ou dans vos décisions, c’est votre marque et votre responsabilité qui sont en jeu.

De légères améliorations de la précision peuvent engendrer un dangereux faux sentiment de sécurité

Il y a quelque chose de plus dangereux qu’un échec évident, et c’est l’échec que vous ne remarquez pas. C’est la situation dans laquelle nous nous trouvons avec les modèles d’IA générative. Lorsqu’ils commettent des erreurs en permanence, il est facile de les repérer. Mais lorsque leur taux de réussite atteint 80 ou 90 %, les erreurs deviennent subtiles, et c’est à ce moment-là que les gens cessent de s’interroger sur les résultats. C’est un problème dont peu de gens parlent, mais qui est crucial.

Lorsqu’un système d’IA vous donne une réponse erronée qui semble tout à fait crédible, il y a plus de chances qu’elle passe à travers les mailles du filet. Vos équipes pourraient cesser de vérifier les faits. Vos processus peuvent supposer l’exactitude. Et une fois que les erreurs sont intégrées dans les décisions, vous perdez à la fois le contrôle et la responsabilité. Il ne s’agit pas seulement d’une mauvaise exécution, mais d’un risque opérationnel qui se cache sous une apparence de grande efficacité.

Il est important de comprendre qu’un taux de « justesse » de 90 % dans ce contexte ne signifie pas que le système répond avec une clarté absolue à 90 questions sur 100. Cela signifie que pour certaines tâches, comme écrire, coder ou répondre à des questions, les réponses sont susceptibles de paraître exactes, même si elles ne le sont pas. Cela brouille la frontière entre les véritables gains de productivité et l’exposition silencieuse à l’échec.

Si vous vous contentez de mesurer l’impression que donne le langage, vous pouvez penser que vous avez pris de l’avance. Mais si ne serait-ce que 5 % des clauses juridiques, des résumés financiers ou des documents d’assurance générés par l’IA sont erronés, il s’agit d’un risque aggravé à grande échelle. Et la plupart des gens ne se rendront compte de ces erreurs que lorsqu’il sera trop tard.

Les dirigeants doivent mettre en place des contrôles stricts et se rappeler qu’une plus grande fluidité n’est pas synonyme d’une plus grande intelligence. Vous n’avez pas besoin que ces systèmes atteignent la perfection. Mais vous devez savoir où et comment ils échouent. C’est la discipline qui distingue le déploiement intelligent de l’optimisme aveugle.

L’adoption de l’IA générative par les entreprises s’accélère rapidement

Voici ce qui n’est pas logique : Les antécédents de l’IA générative montrent des taux d’erreur élevés et un manque de fiabilité avéré, mais les entreprises continuent d’intégrer rapidement ces systèmes dans leurs opérations de base. Un rapport récent cité dans l’article révèle que 50 % des dirigeants du secteur technologique s’attendent à ce que les agents d’IA générative fonctionnent de manière autonome dans leur entreprise d’ici deux ans. Non pas en tant qu’outils d’assistance, mais en tant que systèmes actifs et non supervisés.

Ce serait ambitieux même si nous avions affaire à une technologie mature, transparente et déterministe. Mais ce n’est pas le cas. Les systèmes d’IA générative restent probabilistes et non déterministes. Cela signifie que vous n’obtiendrez pas toujours deux fois la même réponse et que vous ne pourrez pas toujours expliquer pourquoi le système a fait le choix qu’il a fait. Dans les environnements d’entreprise critiques, il s’agit d’un problème, pas d’une caractéristique.

À l’heure actuelle, l « élan est alimenté par la crainte d » être distancé. Les entreprises voient leurs concurrents expérimenter l’IA et pensent qu’elles doivent afficher des niveaux d’adoption similaires pour paraître pertinentes aux yeux des marchés, des conseils d’administration et des investisseurs. C’est compréhensible. Mais une mise en œuvre rapide sans examen approfondi introduit une complexité et une dette opérationnelle à tous les niveaux. Elle augmente la probabilité d’erreurs de procédure, d’une mauvaise gestion des données et d’une prise de décision erronée qui peut ne pas apparaître avant que le mal ne soit fait.

Il ne s’agit pas seulement de prudence. Il s’agit de faire preuve de discernement. Si vous déployez l l’IA pour remplacer les humains dans les flux de travail de l’entreprise, vous avez besoin de résilience. Et les systèmes d’IA, dans leur forme actuelle, ne sont pas résilients de manière indépendante. Ils se brisent de manière imprévisible. Cet aspect doit être intégré dans vos hypothèses de déploiement, et non pas traité après coup.

Les dirigeants doivent s’approprier le rythme et les limites de l’adoption. Il ne s’agit pas de ralentir. Il s’agit d’être intelligent rapidement, de comprendre comment, quand et où les angles morts du système peuvent devenir la responsabilité de votre entreprise. Il n’y a aucun avantage à déployer une automatisation qui n’est pas entièrement comprise. L’objectif n’est pas l’adoption, mais l’avantage concurrentiel grâce à une utilisation contrôlée et intelligente.

L’IA générative peut être un outil efficace lorsqu’elle est utilisée pour des rôles de soutien étroitement définis.

Précisons ce que ces systèmes d’IA font réellement bien. Ils sont capables de générer du contenu structuré, de résumer des données, d’organiser des idées préliminaires et d’automatiser des tâches répétitives à faible risque. Si vous comprenez cela et que vous concevez en conséquence, ils peuvent créer une valeur mesurable sans exposer votre entreprise à des risques inutiles. Il ne s’agit pas de limiter l’ambition, mais de clarifier la fonction.

Des tâches telles que l’aide à la rédaction de notes de réunion, la production d’une première version de diapositives de présentation ou la génération rapide d’un modèle d’e-mail pour un client ? Il s’agit d’activités à faible impact et à volume élevé pour lesquelles l’IA peut rationaliser le flux de travail et faire gagner du temps. Elle peut également contribuer au brainstorming de l’équipe ou compiler rapidement des données à partir de données non structurées, à condition que vous ne comptiez pas sur elle pour tirer des conclusions stratégiques ou porter des jugements indépendants.

Le problème se pose lorsque l’on tente d’étendre ces systèmes au-delà de leurs limites actuelles, en attendant d’eux qu’ils appliquent un raisonnement ou qu’ils testent la logique comme le ferait un humain compétent. Lorsque l’IA est utilisée pour fournir des évaluations financières, des examens juridiques ou des documents techniques vérifiés à la source sans examen, le système commence à créer des risques au lieu de les éliminer.

Pour les dirigeants, il s’agit d’intégrer l’IA là où la supervision humaine n’est pas un goulot d’étranglement et où les erreurs n’entraînent pas de revers stratégiques. L’essentiel est de définir le champ d’application. Vous ne voulez pas que votre équipe utilise des modèles génératifs sans en comprendre les limites. Vous ne voulez pas non plus d’une automatisation aveugle dans les flux de travail liés à la confiance dans la marque, à la conformité juridique ou à la sécurité des clients.

Utilisés correctement, ces outils peuvent réduire l’inefficacité dans les bons coins de votre entreprise sans compromettre l’intégrité. Mais ces résultats dépendent entièrement d’une exécution délibérée. Tout ce qui va au-delà n’est que vulnérabilité potentielle déguisée en innovation.

La responsabilité ultime de l’exploitation correcte de l’IA générative incombe à l’utilisateur

Les entreprises technologiques continueront à vendre leur vision. Elles mettront en avant des démonstrations révolutionnaires, positionneront les modèles d’IA comme des assistants autonomes et minimiseront les limites pour favoriser l’adoption. C’est très bien, c’est leur travail. Mais soyons clairs : la responsabilité de l’utilisation de ces outils incombe directement aux organisations qui les déploient.

En réalité, les systèmes d’IA générative actuels ne disposent d’aucun mécanisme interne de vérification des faits ou de prise de décision éthique. Ils ne mesurent pas les risques et n’apprennent pas à rendre des comptes. Tout dépend des paramètres que vous définissez et des contrôles que vous mettez en place autour d’eux.

Si votre stratégie commerciale consiste à utiliser ces outils pour réduire les effectifs, favoriser l’automatisation de la clientèle ou réduire la supervision humaine, vous devez être honnête quant aux risques que cela comporte. Si vous les utilisez pour compléter des flux de travail sans procédures vérifiées d’assurance qualité, le risque est le même. Les décisions sont importantes. Et elles ne peuvent pas être externalisées.

Il s’agit d’un problème de leadership, pas d’un problème technique. Chaque fois qu’une erreur induite par l’IA est commise, qu’il s’agisse d’un chatbot mal informé, d’un résumé financier inexact ou d’une citation fabriquée, ce n’est pas la faute du système. Il s’agit d’une défaillance au niveau de la mise en œuvre.

En tant que dirigeants, notre tâche ne consiste pas à rejeter l’IA ou à l’adopter aveuglément sur la base d’un battage médiatique. Il s’agit d’aligner les capacités technologiques sur les fondamentaux de l’entreprise. Cela signifie qu’il faut investir dans des cadres de surveillance, maintenir les humains dans la boucle là où c’est important et corriger le cap en temps réel à mesure que les outils évoluent.

L’avenir de l’IA générative est plein de potentiel. Mais cette valeur ne se libère que par une utilisation responsable. Pour réussir à avoir un impact important, il faut comprendre la différence entre ce qui est prouvé et ce qui est promis, et agir en conséquence.

Principaux faits marquants

  • Les capacités techniques sont surestimées : Les outils d’IA générative tels que Google Gemini et Microsoft Copilot sont commercialisés en tant que systèmes intelligents, mais sont fondamentalement des moteurs de prédiction de mots, et non des décideurs. Les dirigeants doivent aligner les objectifs de déploiement interne sur ce que la technologie peut fournir de manière fiable.
  • Le risque de désinformation est élevé : Ces modèles génèrent en toute confiance des résultats qui peuvent inclure des faits inventés, des citations inexactes et des informations trompeuses. Les entreprises devraient mettre en place des systèmes de validation stricts avant d’intégrer l’IA dans les flux de travail juridiques, financiers ou en contact avec la clientèle.
  • L’exactitude perçue crée un risque caché : À mesure que le contenu généré par l’IA devient plus fluide, les erreurs occasionnelles deviennent plus difficiles à détecter et plus susceptibles de susciter la confiance. Les dirigeants doivent considérer l’exactitude partielle comme une responsabilité et mettre en place des dispositifs de sécurité pour les résultats critiques.
  • L’adoption est plus rapide que la surveillance : la moitié des dirigeants du secteur technologique s’attendent à ce que des systèmes d’IA autonomes soient utilisés dans leur entreprise d’ici deux ans, malgré un nombre croissant de preuves montrant des performances instables. Les entreprises devraient accélérer l’acquisition de connaissances sur l’IA au niveau de la direction afin de guider une mise en œuvre responsable.
  • Les cas d’utilisation doivent être limités : L’IA générative est performante dans des fonctions de soutien définies et à faible risque, telles que le résumé, le formatage et les premières étapes de l’idéation, mais pas dans des tâches lourdes en termes de jugement. Les dirigeants devraient clarifier les cas d’utilisation approuvés et restreindre l’utilisation à fort impact sans examen humain.
  • La responsabilité incombe à l’utilisateur : Les fournisseurs de technologie continueront à vendre les avantages, mais le risque d’exécution se situe au sein de l’organisation. Les dirigeants doivent s’approprier la stratégie de déploiement de l’IA, mettre en place une gouvernance autour de l’utilisation et s’assurer que les équipes comprennent que ces outils sont des outils d’assistance et non des outils autonomes.

Alexander Procter

juin 10, 2025

14 Min