Les utilisateurs humains sont les seuls responsables des erreurs de l’IA
L’IA n’a pas d’intention, de conscience ou de responsabilité, c’est un logiciel. Elle ne sait pas ce qu’elle fait. Lorsqu’elle dérape et génère des résultats faux, trompeurs ou simplement mauvais, la responsabilité n’incombe pas au code. Elle incombe entièrement aux personnes qui l’utilisent.
Vous pouvez construire des systèmes d’IA très complexes et à la pointe de la technologie, mais si quelqu’un interagit avec eux sans précaution ou leur délègue des tâches à l’aveuglette, le résultat ne s’arrangera pas tout seul comme par magie. Prenez le contenu généré par l’IA dans les affaires juridiques, le journalisme ou la conception de produits : c’est à vous de vérifier, d’éditer et de valider le résultat avant de le diffuser dans le monde. S’il y a une erreur, c’est la faute de l’utilisateur. Il n’y a pas de débat.
Des exemples concrets continuent de faire surface. Lena McDonald, auteur de romans fantastiques, a inséré dans son livre du contenu généré par l’IA sans le vérifier, révélant ainsi l’absence de révision professionnelle. Le même problème est apparu dans une liste de livres d’été rédigée par Marco Buscaglia, rédacteur pour King Features Syndicate, qui a utilisé l’IA pour fabriquer des titres et des auteurs qui n’ont jamais existé. Chong Ke, un avocat canadien, est allé encore plus loin. Il a cité de fausses affaires juridiques dans une salle d’audience tirée de ChatGPT. Le juge l’a condamné à payer des pénalités. Dans chaque cas, l’humain a décidé de faire confiance aux résultats de l’IA sans faire le travail minimal nécessaire pour les vérifier.
Le problème est que les gens traitent l’IA comme si elle était plus intelligente qu’elle ne l’est.
Une étude récente présentée à la conférence FAccT de l’Association for Computing Machinery a révélé que Whisper d’OpenAI, un modèle de reconnaissance vocale largement utilisé, insérait du contenu fabriqué dans environ 1 % de ses transcriptions. Près de 38 % de ces erreurs pourraient littéralement causer des dommages dans des scénarios médicaux. C’est grave. Aucune automatisation ne devrait fonctionner sans surveillance dans des cas d’utilisation où le coût de l’échec est aussi élevé.
Les dirigeants devraient tracer une ligne claire : L’IA est puissante, mais elle n’est pas responsable. Ce sont vos collaborateurs qui le sont. Fixez des normes. Formez-les. Faites-les respecter. C’est ainsi que vous protégerez votre marque et votre entreprise.
L’utilisation abusive de l’IA a entraîné des échecs professionnels et juridiques dans le monde réel
L’utilisation abusive de l’IA se produit dans tous les secteurs, et les coûts sont réels.
Des professionnels dans des domaines créatifs et réglementés ont déployé des outils d’IA sans en examiner les résultats. Cette lacune est à l’origine de défaillances opérationnelles, d’embarras publics et de revers juridiques. Le problème n’est pas que l’IA est défectueuse, c’est que les gens ne font pas le travail humain qui compte encore beaucoup : vérifier les faits, éditer les résultats et maintenir le contrôle de la qualité.
L’article de Marco Buscaglia pour une liste de lectures d’été diffusée à l’échelle nationale mentionnait de faux livres écrits par de vrais auteurs, ce qui prouve qu’il n’avait pas vérifié le contenu généré par l’IA. Lena McDonald, K.C. Crowne et Rania Faris, toutes auteures de romans d’amour, ont présenté des problèmes similaires. Elles ont laissé des messages-guides et des échafaudages d’IA à l’intérieur de leurs livres auto-publiés. Ce qui signifie qu’ils n’ont pas réellement lu le matériel mis sur le marché.
Dans le domaine juridique, c’est pire. Chong Ke, un avocat exerçant au Canada, a présenté à un juge des affaires judiciaires fabriquées de toutes pièces, qui provenaient directement de ChatGPT. Il a été tenu pour responsable et a dû couvrir les frais de recherche de la partie adverse. Ce type d’événement nuit à la crédibilité et accroît le risque de non-conformité, en particulier dans les secteurs où les enjeux sont importants.
La leçon à tirer pour tout dirigeant utilisant l’IA au sein de son organisation est simple : vous ne devez pas permettre à des outils non supervisés de faire circuler des affirmations non étayées, des analyses non vérifiées ou des décisions ayant un poids juridique. Les modèles d’IA sous-jacents sont conçus pour prédire des textes ou des modèles probables. Si vos collaborateurs supposent le contraire, ce n’est pas la faute du logiciel, mais celle de votre gouvernance.
Les entreprises intelligentes feront de l’IA un copilote. Cela signifie qu’il y a toujours un opérateur qualifié dans la boucle pour garder les choses sur la bonne voie. Tout le reste n’est que négligence coûteuse.
Il est faux de considérer l’IA comme une entité autonome et juridiquement distincte.
Les organisations doivent cesser de prétendre que les systèmes d’IA ont une identité juridique indépendante. C’est faux. L’IA n’a pas de statut juridique, et toute tentative de suggérer le contraire n’est qu’un moyen d’échapper à la responsabilité. Cette approche ne tiendra pas devant les tribunaux et, surtout, elle ne résiste pas à la logique.
La situation d’Air Canada en 2023 en est un bon exemple. Le chatbot de la compagnie a donné à un client de fausses informations sur la politique de remboursement du tarif de deuil. Devant un tribunal des petites créances, la compagnie aérienne a fait valoir que le chatbot était une « entité juridique distincte ». Le tribunal a immédiatement rejeté cet argument. La décision a confirmé ce qui devait déjà être compris : l’entreprise est propriétaire de l’outil, de l’infrastructure et des conséquences de son déploiement.
Aucune IA n’agit seule. Elle traite les données d’entrée, applique des paramètres appris par la machine et produit des résultats. Elle ne prend pas de décisions. Elle ne comprend pas les responsabilités ou les conséquences. Si un outil d’IA fournit des informations erronées, cela reflète une défaillance dans la manière dont cet outil a été intégré, guidé ou contrôlé par l’organisation qui l’utilise.
Pour les dirigeants, cela change la donne. Il s’agit de savoir pourquoi les systèmes ont été autorisés à fonctionner sans contrôle, sans filtre et sans responsabilité. Ce n’est pas en rejetant la faute sur un algorithme que vous vous défendrez devant un régulateur, un tribunal ou une base de clients. Les chefs d’entreprise doivent s’assurer que des structures de responsabilité sont en place, avec une attribution claire de la propriété humaine pour toutes les décisions et communications générées par l’IA.
Cela signifie que les examens ne peuvent pas être occasionnels. Ils doivent être systématiques. Dans les flux de travail des services juridiques, des services et des communications, tout déploiement de l’IA doit être traçable, vérifiable et contrôlé. Voilà à quoi ressemble une gouvernance à l’épreuve du temps. Et c’est votre avantage, si vous vous y engagez tôt.
L’utilisation non supervisée de l’IA conduit à des hallucinations généralisées et à des erreurs dangereuses
Lorsque l’IA n’est pas supervisée, les résultats deviennent rapidement peu fiables. Cela a été prouvé par des exemples directs, depuis les interactions défectueuses avec l’assistance à la clientèle jusqu’aux recommandations carrément dangereuses formulées par des systèmes destinés au public.
Les aperçus de l’IA de Google ont fait la une des journaux du monde entier lorsqu’ils ont suggéré de mettre de la colle sur une pizza ou de manger de petits cailloux. Les résumés de notification d’Apple, alimentés par l’IA, ont ajouté de faux titres sur des arrestations politiques. Il ne s’agit pas de cas isolés, mais d’incidents survenus dans les entreprises technologiques les plus avancées du monde. Et c’est là que réside l’avertissement. Si leurs processus permettent à ces produits d’atteindre les utilisateurs, cela montre à quel point la surveillance humaine reste essentielle.
Les échecs ne se limitent pas non plus aux technologies grand public. Dans le domaine de la santé, les outils de transcription par IA utilisant Whisper d’OpenAI produisaient régulièrement des résultats inexacts. Une étude présentée lors de la conférence FAccT de l’Association for Computing Machinery a révélé que 1 % des transcriptions de Whisper incluaient un contenu qui n’avait jamais été prononcé. Parmi ceux-ci, près de 38 % étaient susceptibles de causer un préjudice médical.
Ces résultats confirment qu’il est imprudent de laisser l’IA opérer sur des pipelines non surveillés ou des processus non supervisés. Les résultats générés par l’IA sont basés sur des probabilités et non sur la compréhension. Sans personne pour vérifier le contexte et la précision, les taux d’erreur se multiplient et s’aggravent.
Pour les dirigeants qui déploient l’IA dans les communications, les soins de santé, la fintech ou les services juridiques, il s’agit de menaces pour la conformité, la confiance et la stabilité opérationnelle. Pour y remédier, il n’est pas nécessaire de procéder à une refonte. Il s’agit d’attribuer la propriété, de mettre en place des couches de révision et d’ajuster l’architecture de déploiement pour s’assurer que l’IA ne publie pas tant qu’elle n’a pas été vérifiée. Il s’agit là d’une discipline opérationnelle simple. Mais elle doit être appliquée de haut en bas.
Pour trouver un équilibre, l’adoption responsable de l’IA nécessite une surveillance humaine active.
La voie à suivre est toute tracée. Les entreprises ne doivent pas rejeter l’IA. Mais elles ne peuvent pas non plus lui faire entièrement confiance pour gérer les opérations de manière autonome. Les dirigeants doivent s’accommoder d’un juste milieu, en utilisant l’IA pour faciliter le travail, mais sans jamais remplacer la supervision qui garantit que les résultats sont exacts, pertinents et alignés sur les objectifs de l’entreprise.
De nombreuses organisations sont allées jusqu’à l’extrême. Certaines interdisent toute utilisation de l’IA générative en raison de craintes liées à la sécurité ou à la qualité. D’autres l’intègrent sans contrôles appropriés, en supposant que le système se gérera de lui-même d’une manière ou d’une autre. Ces deux approches sont inefficaces. Si vous n’utilisez pas du tout la technologie, vous manquez des gains tangibles en termes de productivité, de génération d’idées et de rapidité. Si vous l’utilisez sans en vérifier les résultats, vous jouez avec l’exécution et introduisez un risque systémique.
La véritable solution réside dans un déploiement discipliné. Formez vos équipes à utiliser l’IA comme un atout de soutien. Faites en sorte que les points de contrôle ne soient pas négociables. Automatisez ce qui a du sens, mais établissez des règles claires pour savoir quand, où et comment la vérification humaine est nécessaire. Voilà à quoi ressemble le contrôle dans une entreprise intégrée à l’IA.
Les dirigeants devraient également considérer la gouvernance comme un atout stratégique. Il ne s’agit pas seulement de conformité, mais aussi de performances prévisibles. Si vos équipes comprennent où s’arrête l’automatisation et où commence leur jugement, elles utiliseront les outils plus efficacement. Cela permet d’obtenir des résultats plus solides, une production plus régulière et des cycles d’innovation plus fluides.
Le thème récurrent des échecs retentissants de l’IA est toujours le même : quelqu’un a confié trop de responsabilités à un système qui ne raisonne pas, ne comprend pas et ne se corrige pas lui-même. Pour éliminer ce risque, il faut intégrer la surveillance dans la conception.
L’IA ne disparaîtra pas. Ses capacités vont s’étendre. Les entreprises qui en bénéficieront le plus ne seront pas celles qui l’utiliseront le plus rapidement. Elles seront celles qui l’utiliseront à bon escient, avec des opérateurs qui la comprennent, des systèmes qui la contrôlent et des dirigeants qui imposent la responsabilité depuis le sommet jusqu’à la base. C’est là que réside l’avantage.
Principaux enseignements pour les dirigeants
- Les décisions humaines sont à l’origine des erreurs de l’IA : L’IA n’est pas autonome, elle reflète la qualité de la contribution et de la supervision humaines. Les dirigeants doivent appliquer des normes de responsabilité claires pour s’assurer que le contenu généré par l’IA est examiné, vérifié et aligné sur les attentes de l’organisation.
- L’utilisation abusive de l’IA entraîne des risques tangibles : Des sanctions juridiques aux atteintes à la réputation, la production non contrôlée de l’IA introduit des responsabilités. Les dirigeants doivent établir des protocoles d’examen entre les équipes créatives, juridiques et opérationnelles afin d’éviter les échecs évitables.
- La responsabilité juridique incombe à l’utilisateur : Le fait de considérer l’IA comme une entité juridique distincte ne résistera pas à un examen approfondi. Les décideurs doivent reconnaître que la responsabilité juridique incombe toujours à l’organisation qui déploie les outils d’IA.
- L’IA non supervisée génère des informations erronées et préjudiciables : Les principaux systèmes d’IA ont produit de fausses instructions et du contenu fabriqué, même dans des domaines critiques comme la santé. Les dirigeants devraient imposer des processus humains dans la boucle pour intercepter et corriger les résultats erronés avant qu’ils ne s’aggravent.
- L’adoption disciplinée de l’IA permet de dégager de la valeur : La restriction totale ou la confiance aveugle dans l’IA nuisent toutes deux à la performance. Les dirigeants doivent guider les équipes pour qu’elles intègrent l’IA comme un outil supervisé, soutenant les flux de travail sans renoncer à la responsabilité.