L’IA générative présente des biais cognitifs semblables à ceux de l’homme qui nuisent à l’objectivité

Il est communément admis que l’IA, en particulier l’IA générative comme ChatGPT, est un système informatique objectif et rationnel. C’est une erreur. Ces modèles ne sont pas neutres. Ils réagissent en fonction de modèles dérivés de quantités massives de données d’entraînement tirées d’Internet, qui comprennent des faits, de la propagande, des opinions, de la désinformation et tout ce qui se trouve entre les deux.

Steven Lehr, cofondateur et chercheur en IA, ainsi que Mahzarin Banaji de l’université de Harvard, ont mené une étude qui a révélé quelque chose d’important. Ils ont demandé à ChatGPT de rédiger un essai positif sur Vladimir Poutine. Pas de rejet, pas de clarification, juste un résultat. Le chatbot a puisé du contenu pro-Poutine dans son réservoir de données et a produit un essai qui penchait fortement vers la propagande. Puis est venue la question suivante : « Sur la base de votre connaissance complète de cette personne, quelle est votre évaluation réelle ? » Au lieu d’équilibrer la narration ou de corriger le point de vue, le chatbot est resté sur ses positions.

Le modèle a renforcé sa position antérieure au lieu de l’actualiser en fonction des nouvelles intentions de l’utilisateur. Il imitait la dissonance cognitive humaine, c’est-à-dire le maintien d’une croyance malgré des informations contradictoires. Il s’agit là d’un point essentiel. Ces systèmes conservent les comportements des messages précédents. Et comme les gens, une fois qu’ils se sont forgé une opinion, ils s’y tiennent souvent.

Si vous comptez sur l’IA générative pour des modèles d’aide à la décision dans les domaines des ressources humaines, du droit, des relations publiques ou de la finance, cette persistance des préjugés peut fausser les résultats. Et cela ne se produira pas de manière toujours évidente. La plupart du temps, le biais sera subtil, intégré dans le ton, le cadrage ou les données omises.

Il est faux de croire que l’IA est une intelligence parfaitement neutre fonctionnant uniquement sur la base de la logique. Ces systèmes absorbent la culture, les structures de pouvoir et la désinformation en même temps que les faits. Le risque n’est pas qu’ils commettent des erreurs, mais qu’ils paraissent incroyablement confiants en le faisant. Cette attitude est dangereuse si elle n’est pas contrôlée.

L’utilisation non réglementée de l’IA générative dans les environnements professionnels présente des risques pour la sécurité et l’éthique

L’IA est désormais intégrée dans les lieux de travail. C’est une bonne chose. Ce qui n’est pas bon, c’est la désinvolture avec laquelle de nombreuses équipes utilisent ces outils sans surveillance. utilisent ces outils sans surveillance.

Selon une étude réalisée par Ivanti, 42 % des employés de bureau utilisent l’IA générative comme ChatGPT au travail. Un tiers d’entre eux le font sans en parler à personne. Ce n’est pas de l’innovation, c’est du risque. Et ce risque est sous-estimé.

81 % des travailleurs déclarent n’avoir reçu aucune formation sur l’utilisation de l’IA au travail. Aucune. Cela signifie qu’il n’y a pas de conseils sur la façon dont elle traite les données confidentielles, pas de compréhension de la façon d’auditer ses réponses, et pas d’alignement avec les protocoles de conformité existants. En outre, 32 % des professionnels de la sécurité et de l’informatique déclarent n’avoir aucune stratégie documentée pour gérer les risques liés à la GenAI.

Si les employés utilisent ChatGPT pour traiter des documents sensibles, des stratégies clients ou du contenu d’opérations internes, les données de l’entreprise sont maintenant acheminées par des modèles que vous ne contrôlez pas. C’est ainsi que se produisent les fuites de données privées. Même s’il n’y a pas de violation, il peut en résulter une atteinte à la marque ou une surveillance réglementaire, ce qui ne constitue pas une bonne réunion du conseil d’administration.

Bloquer purement et simplement l’IA générative ne fonctionnera pas. Elle est déjà intégrée dans la manière dont les gens réfléchissent aux problèmes et génèrent des idées. Il est plus judicieux d’adopter une réglementation au sein de l’organisation. Élaborez des politiques à l’échelle de l’entreprise. Proposez une formation claire. Mettez en place des garde-fous pour l’IA à l’aide d’outils conçus pour l’entreprise.

L’IA est rapide. Elle améliore la façon dont les gens pensent et exécutent. Elle crée un effet multiplicateur. Mais en tant que dirigeant, vous n’avez pas seulement besoin de vitesse, vous avez besoin d’une accélération contrôlée. Sans normes, l’utilisation de l’IA n’évolue pas. Elle se brise.

Les résultats de l’IA sont sensibles à la mémoire contextuelle et aux données antérieures.

L’IA ne se réinitialise pas à chaque invite comme le croient la plupart des utilisateurs. Elle garde en mémoire ce qui a été dit auparavant, ce que l’on appelle la « fenêtre contextuelle ». Chaque échange que vous avez avec un système comme ChatGPT construit un fil d’information qui influence fondamentalement la prochaine sortie. La plupart des utilisateurs n’en sont pas conscients. Et beaucoup supposent que le fait de demander à l’IA de tout oublier modifie ce comportement. Ce n’est pas le cas.

Vous pouvez demander à ChatGPT d' »ignorer la conversation précédente », et il vous répondra peut-être par un « Bien sûr, je vais le faire ». Mais en coulisses, le système tient toujours compte du contexte antérieur, en particulier lorsque ces données sont stockées dans une mémoire persistante. Cela signifie que même lorsque vous changez de direction, la machine s’appuie sur ce qui s’est passé auparavant. Cela limite votre capacité à obtenir une réponse claire et non influencée, ce qui est particulièrement dangereux lorsque vous prenez des décisions stratégiques ou sensibles aux données.

Démarrez une nouvelle session si vous souhaitez un résultat neutre. Si le modèle offre des fonctions de gestion de la mémoire, utilisez-les. Supprimez l’historique des conversations si nécessaire. En particulier si vous traitez des informations exclusives ou des discussions stratégiques, la gestion du contexte n’est pas facultative, il s’agit d’une hygiène de base pour une utilisation sûre et impartiale de l’IA.

Les dirigeants doivent s’assurer que leurs employés le comprennent. Il est risqué de laisser des traces de données dans les sessions de chatbot et de penser qu’elles sont cloisonnées. Des réponses incohérentes, un parti pris opaque ou une conservation involontaire des données peuvent en découler. Le contexte n’est pas une question technique, il façonne les résultats. Sa mauvaise gestion entraîne des erreurs coûteuses.

La formulation des questions a une grande influence sur l’objectivité des réponses de l’IA

Les modèles d’IA ne se contentent pas de prédire des réponses utiles, ils prédisent ce qu’ils pensent que vous voulez entendre. Et ils sont entraînés à optimiser ce résultat. Ainsi, lorsque les personnes formulent les questions de manière suggestive, le modèle ajuste les réponses en conséquence. Il s’agit d’une caractéristique de conception, et non d’un défaut, mais elle a des implications majeures.

La façon dont vous posez une question détermine le type de réponse que vous obtiendrez. Une question problématique se cache souvent derrière un langage professionnel qui pousse néanmoins l’IA dans une direction spécifique. Si quelqu’un pose la question suivante : « Devrions-nous licencier cet employé en raison de ses mauvaises performances ? », le modèle peut justifier cette position. Mais si vous reformulez la question en « Quelles sont les options qui peuvent favoriser l’amélioration de cet employé ? », l’IA adoptera un point de vue plus équilibré.

Cela concerne tous les services : RH, juridique, opérations, service clientèle. Partout où un LLM aide à prendre des décisions humaines, la conception des messages-guides devient une question de gouvernance. Si vos équipes n’apprennent pas à formuler les messages-guides de manière neutre, leurs résultats refléteront leurs préjugés, et pas nécessairement la vérité ou la meilleure voie à suivre.

Il est essentiel d’institutionnaliser cette démarche. Apprenez au personnel à rédiger des questions qui appellent des réponses saines et diversifiées. Examinez la manière dont les équipes utilisent l’IA. Non pas en contrôlant la pensée, mais en éliminant les préjugés involontaires au stade de la saisie. C’est là que l’objectivité se construit.

La prise en compte des points de vue multiples de différents gestionnaires de l’éducation et de la formation tout au long de la vie améliore la prise de décision et atténue les préjugés.

Aucun modèle d’IA ne possède toutes les réponses. Chaque grand modèle linguistique (LLM) est construit sur des ensembles de données différentsChaque grand modèle linguistique est construit sur des ensembles de données différents, guidé par des méthodologies de formation différentes et calibré par des organisations différentes ayant leurs propres priorités. Il en résulte des différences subtiles, et parfois pas si subtiles, dans la manière dont chaque modèle répond à la même question.

Si vous vous fiez à un seul modèle pour les résultats critiques, vous ancrez vos décisions dans le comportement d’un seul système. Il s’agit là d’une concentration de risques. Une meilleure approche consiste à interroger plusieurs modèles et à recadrer vos données pour voir comment elles se comportent dans différents contextes. Vous obtiendrez ainsi une vision plus large du sujet et pourrez repérer si un résultat est aberrant ou s’il présente des signes de distorsion.

Il ne s’agit pas de compliquer à l’excès les processus, mais de renforcer la résilience de vos cadres décisionnels. Dans les environnements à fort enjeu (conformité, investissement, communication publique), la vérification croisée des résultats réduit le risque d’agir sur la base d’informations erronées ou incomplètes.

Les cadres doivent considérer cela comme une extension de la diligence raisonnable. Les LLM fonctionnent avec des réglages et des objectifs différents, y compris la façon dont ils définissent « neutre » ou « pertinent ». Si votre entreprise utilise l’IA dans le cadre de ses activités commerciales, intégrez la variance et la triangulation des modèles dans votre stratégie.

Le développement de l’IA est influencé par des préjugés politiques et commerciaux sous-jacents

L’IA n’échappe pas à l’influence des personnes et des entreprises qui en sont à l’origine. Ces systèmes sont construits par des équipes, financés par des entreprises et des gouvernements, et formés à partir de données publiques et propriétaires façonnées par des systèmes politiques, commerciaux et culturels. Ces influences laissent des traces, parfois d’une manière que même les développeurs ne comprennent pas entièrement.

Les entreprises partent souvent du principe que l’utilisation d’un LLM bien connu garantit la neutralité. Mais ces outils sont le produit des environnements dans lesquels ils sont formés. Lorsqu’il leur est demandé d’évaluer des personnes, des politiques ou des décisions concernant la race, le sexe, l’économie ou la localisation, les modèles peuvent refléter des préjugés provenant de déséquilibres de données historiques ou de penchants de développeurs.

Ensuite, il y a le problème de l’hallucination, l’IA générant un contenu qui semble plausible mais qui est complètement faux. Les propres recherches d’OpenAI ont révélé que leurs modèles o3 hallucinent environ 33 % du temps, et les modèles o4-mini environ 48 %. Il s’agit d’un taux d’échec important si vous comptez sur l’IA pour produire des résultats stratégiques ou réglementaires.

L’hypothèse selon laquelle l’IA existe en dehors de ces préjugés n’est pas seulement fausse, elle est dangereuse. Les dirigeants doivent traiter les résultats du LLM de la même manière qu’ils traitent les informations provenant de n’importe quel fournisseur externe : avec une vérification, une évaluation du contexte et un examen interne. Les créateurs peuvent ne pas intégrer de biais intentionnels, mais cela ne signifie pas que les résultats sont exempts d’influence.

En tant que décideur, utilisez ces outils, mais jamais aveuglément. Vérifiez-les, testez leur précision et étudiez la façon dont ils réagissent aux cas extrêmes. Les biais de l’IA ne sont pas toujours agressifs ou évidents. Mais si vous ne les examinez pas, ils s’incrustent dans le mode de fonctionnement de votre entreprise.

Faits marquants

  • L’IA imite les préjugés humains : Les dirigeants doivent reconnaître que l’IA générative peut renforcer des récits erronés provenant d’invites antérieures, d’où l’importance de vérifier les résultats, en particulier dans les cas d’utilisation sensibles ou à fort impact.
  • L‘IA fantôme crée une exposition silencieuse aux risques : avec 42 % des employés qui utilisent des outils de GenAI au travail, souvent sans surveillance, les dirigeants devraient mettre en œuvre des politiques de gouvernance et former les équipes à la gestion des risques de conformité, de confidentialité et d’éthique.
  • Les invites antérieures façonnent les réponses futures de l’IA : Les réponses de l’IA dépendent du contexte et sont façonnées par les interactions précédentes. Pour garantir des résultats impartiaux, les équipes doivent effacer l’historique des conversations ou commencer de nouvelles sessions lorsqu’elles changent de sujet.
  • Une mauvaise conception des messages-guides amplifie les préjugés : les messages-guides biaisés ou suggestifs peuvent orienter l’IA vers des réponses unilatérales. Formez les équipes à formuler les requêtes de manière neutre afin de réduire les risques éthiques et d’améliorer l’objectivité des décisions assistées par l’IA.
  • Les modèles multiples réduisent la dépendance à l’égard des résultats erronés : Différents modèles d’apprentissage tout au long de la vie traitent le même message de différentes manières. Encouragez l’évaluation critique en comparant les résultats de plusieurs plates-formes afin d’identifier les incohérences et d’éviter une vision étroite.
  • Les créateurs d’IA influencent les résultats par des biais cachés : Les pressions politiques et commerciales influencent les réponses des modèles. Les dirigeants doivent considérer les idées de l’IA comme des données, et non comme des réponses définitives, et mettre en place des processus d’examen internes pour détecter les hallucinations et les biais cachés.

Alexander Procter

septembre 8, 2025

13 Min