La coordination mondiale est essentielle pour une gouvernance efficace de l’IA et la protection des droits de l’homme

L’IA ne s’arrête pas aux frontières. Elle est développée, formée et perfectionnée sur tous les continents, par l’intermédiaire de centres de données, d’équipes mondiales et de chaînes d’approvisionnement interconnectées. Essayer de la réglementer à l’intérieur des frontières nationales revient à confiner l’internet à un seul pays. Ginny Badanes, directrice générale de Tech for Society chez Microsoft, et Rob Sherman, directeur adjoint de la politique de protection de la vie privée chez Meta, ont clairement indiqué qu’une coordination mondiale était nécessaire. Ils ont averti que la fragmentation des règles entre les pays ne fait que compliquer la gestion des risques liés aux préjugés, à la sécurité et à la protection de la vie privée. Ce dont le monde a besoin, c’est d’un alignement, d’un ensemble de normes internationales qui garantissent que l’IA profite à l’humanité tout en protégeant les droits de l’homme partout dans le monde.

Leur point de vue va au-delà de la conformité. Il s’agit d’une reconnaissance pragmatique du fait que le succès de l’IA dépend de la confiance. Si les entreprises et les gouvernements s’alignent sur les principes fondamentaux d’éthique et de sécurité, l’innovation progresse plus rapidement et bénéficie d’une plus grande confiance de la part du public. Le patchwork actuel de directives, de la loi européenne sur l’IA de l’Europe et les cadres proposés par les États-Unis, crée des frictions et ralentit les progrès. L’harmonisation pourrait éliminer ce fouillis et établir une base commune pour la croissance.

Pour les dirigeants, la conclusion est simple : traitez la gouvernance de l’IA comme une question commerciale mondiale. Vous ne pouvez pas développer l’IA de manière responsable si les pratiques en matière de surveillance, de sécurité et de données varient considérablement d’une juridiction à l’autre. En s’engageant dans un dialogue international et en soutenant des normes interopérables, les décideurs peuvent contribuer à créer un environnement plus sûr et plus prévisible pour l’innovation en matière d’IA.

L’approche britannique de la réglementation de l’IA fondée sur les droits de l’homme

Le plan d’action britannique sur les opportunités de l’IA a reçu de bonnes critiques de la part des dirigeants de l’industrie et du gouvernement. Selon Badanes et Sherman, la stratégie constitue un « début raisonnable », fondé sur les lois britanniques en matière de droits de l’homme et sur un cadre axé sur les risques. Elle établit un équilibre entre l’innovation et la protection de la société, une combinaison qui séduit à la fois les entreprises et les régulateurs. Kanishka Narayan, le ministre britannique de l’IA, a renforcé ce point de vue en désignant l’AI Security Institute comme un leader mondial émergent en matière de gouvernance technique de l’IA.

Cependant, l’optimisme s’accompagne d’une certaine prudence. Le modèle britannique fonctionne mieux s’il est relié à des systèmes internationaux plus larges. L’interopérabilité mondiale est essentielle. L’IA ne connaît pas de frontières, pas plus que les risques qu’elle comporte, de la désinformation à la partialité systémique. Si le Royaume-Uni opère de manière isolée, il risque de créer des silos de conformité qui limitent l’utilisation des nouvelles technologies. L’alignement mondial garantit que les solutions d’IA développées selon les normes britanniques peuvent s’intégrer en douceur dans les marchés internationaux, sans audit redondant ni surveillance fragmentée.

Pour les dirigeants, il s’agit d’une opportunité. Les entreprises qui conçoivent des produits d’IA conformes à des normes fondées sur les droits de l’homme peuvent assurer l’avenir de leurs activités. Les orientations du gouvernement britannique témoignent d’une volonté claire de protéger les droits, d’encourager l’innovation et de collaborer à l’échelle internationale. Pour les chefs d’entreprise avant-gardistes, s’aligner sur ce modèle dès le départ ouvre la voie à une plus grande résilience et à un déploiement mondial plus harmonieux lorsque la réglementation arrivera à maturité.

Experts Okoone
PARLONS-EN !

Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.

Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.

Veuillez saisir une adresse email professionnelle valide.

La confiance du public et la transparence sont à la base de l’adoption et de la gouvernance de l’IA

La confiance du public est le véritable moteur du succès de l’IA. Si les gens ne font pas confiance aux systèmes d’IA, ils ne les utiliseront pas, quel que soit le degré d’avancement de la technologie. Ginny Badanes, directrice générale de Tech for Society chez Microsoft, et Rob Sherman, directeur adjoint de la protection de la vie privée chez Meta, ont tous deux insisté sur ce point au cours de la séance du comité. Leur message était direct : sans transparence, l’adoption échoue. Les utilisateurs doivent comprendre d’où viennent les informations et comment les décisions sont prises. À cette fin, les entreprises travaillent sur des mesures telles que des outils d’alignement factuel, des indicateurs de transparence dans les réponses des chatbots et des citations intégrées qui permettent aux gens de vérifier directement les sources. Ces efforts visent à rendre les résultats de l’IA plus fiables et moins opaques.

Plus qu’une question de conformité, il s’agit de maintenir la crédibilité sur un marché en constante évolution. L’étiquetage clair du contenu généré par l’IA, l’explicabilité des résultats des modèles et l’utilisation responsable des données sont les fondements d’une confiance durable. À mesure que le rôle de l’IA s’étend à tous les secteurs, du service à la clientèle aux soins de santé et à la finance, les entreprises qui investissent dans une transparence visible et compréhensible susciteront une plus grande loyauté de la part des utilisateurs et des autorités de réglementation.

Pour les dirigeants, la leçon est simple mais stratégique. Les systèmes d’IA transparents inspirent confiance et soutiennent la croissance à long terme. Les clients font confiance à la clarté, pas à la perfection, et cette confiance influence directement les taux d’adoption, la croissance du chiffre d’affaires et la perception de la marque. Les entreprises qui font de la transparence et de la responsabilité des priorités opérationnelles seront les mieux placées pour innover et mener les discussions sur la conformité au niveau mondial à mesure que les réglementations évoluent.

Lutter contre la désinformation et préserver l’intégrité démocratique

La conversation sur l’IA et la démocratie a pris un ton sérieux. Les législateurs ont interpellé Rob Sherman, directeur adjoint de la protection de la vie privée chez Meta, au sujet de la menace croissante de la désinformation et du rôle de l’IA dans son amplification. M. Sherman a répondu que Facebook vérifiait l’identité réelle de ses utilisateurs en s’appuyant, si nécessaire, sur des documents d’identité délivrés par le gouvernement. Pourtant, les groupes adverses ne cessent de faire évoluer leurs tactiques, ce qui crée une course aux armements permanente entre les mauvais acteurs et les mesures de protection de la plateforme. La société continue d’améliorer les mécanismes de détection, de mettre à jour les filtres de désinformation et d’améliorer la transparence de la manière dont les informations apparaissent dans les flux. Toutefois, M. Sherman a reconnu que le travail est loin d’être terminé.

La désinformation générée par l’IA est l’un des défis de gouvernance les plus complexes d’aujourd’hui. Elle affecte les processus démocratiques, les distorsions du débat public et même la confiance dans les institutions. Les dirigeants des grandes entreprises technologiques savent que pour faire face à ce problème, il ne suffit pas de modérer le contenu, mais qu’il faut construire une résilience systémique. Il s’agit notamment d’investir dans des systèmes de vérification avancés, des outils de provenance tels que le filigrane numérique et le suivi en temps réel des médias manipulés par l’IA.

Pour les chefs d’entreprise, le message est clair : le maintien de la crédibilité dans l’écosystème de l’information n’est pas négociable. Le contrôle de la désinformation n’est pas une question technique, c’est un impératif stratégique. Les entreprises qui anticipent et atténuent les risques de désinformation induits par l’IA protègent à la fois leurs utilisateurs et leur position sur le marché à long terme. Dans la prochaine phase de la transformation numérique, la transparence et l’intégrité ne seront pas des caractéristiques optionnelles ; elles définiront les organisations qui conserveront la confiance du public et des organismes de réglementation.

La question de la responsabilité des dommages causés par l’IA n’est pas résolue

La responsabilité en matière d’IA reste l’un des problèmes de gouvernance les plus difficiles à résoudre. Au cours de la session parlementaire, Ginny Badanes, directrice générale de Tech for Society chez Microsoft, et Rob Sherman, directeur adjoint de la protection de la vie privée chez Meta, ont souligné que la responsabilité des dommages devrait s’aligner sur le contrôle réel, que ce soit au niveau de l’élaboration du modèle, du déploiement ou du comportement de l’utilisateur. Cela signifie que la responsabilité n’est pas unidimensionnelle. Un système qui induit les utilisateurs en erreur, par exemple, peut impliquer des défaillances à plusieurs niveaux : conception défectueuse, déploiement inadéquat ou utilisation malveillante. Les deux dirigeants ont évité de prescrire un modèle juridique fixe, reconnaissant que la responsabilité doit évoluer avec la complexité de la technologie.

À l’heure actuelle, les cadres juridiques régissant la responsabilité de l’IA sont fragmentés et incohérents. Certaines réglementations se concentrent sur le développeur, d’autres sur l’opérateur ou le responsable du traitement des données. Cette incertitude fait qu’il est plus difficile pour les entreprises de planifier des stratégies de gestion des risques et de conformité. Alors que les décideurs politiques affinent leurs cadres, il est conseillé aux entreprises de renforcer la gouvernance interne, de documenter les processus de décision et de procéder à des évaluations d’impact régulières.

Les dirigeants devraient considérer la responsabilité comme une fonction de leadership, et non comme une tâche de conformité. Le fait de savoir clairement qui est responsable dans une chaîne de risque protège à la fois les utilisateurs et les organisations. L’institutionnalisation de la responsabilité, par le biais de rapports transparents, d’une conception de modèle vérifiable et d’une surveillance rigoureuse du déploiement, réduit l’exposition aux litiges et améliore la confiance des parties prenantes. Alors que l’IA continue de s’intégrer dans des secteurs vitaux, la responsabilité sera le fondement d’un progrès durable.

La protection des enfants dans les interactions avec l’IA nécessite une surveillance différenciée et basée sur les risques.

La discussion sur la sécurité des enfants a mis en évidence une réalité croissante : les systèmes d’IA interagissent avec les jeunes utilisateurs de manière de plus en plus complexe. Rob Sherman et Ginny Badanes ont tous deux souligné qu’une limite d’âge uniforme pour toutes les applications d’IA ne reflète pas les différences réelles de risque. Une application de tutorat et un chatbot conversationnel ne présentent tout simplement pas la même exposition. Ils se sont prononcés en faveur d’un cadre fondé sur le risque, dans lequel les dispositifs de sécurité et de vérification s’adaptent à la manière dont les enfants utilisent la technologie et à l’endroit où ils le font. M. Sherman a indiqué qu’une vérification cohérente de l’âge au niveau de la plateforme ajouterait une protection significative qui fait actuellement défaut dans la plupart des écosystèmes.

Cette approche vise à adapter les protections au contexte plutôt qu’à imposer des restrictions brutales. Comme l’a déclaré M. Badanes, il ne suffit pas de bloquer l’accès ; les systèmes doivent également être conçus dès le départ en tenant compte de la sécurité des enfants, grâce à des limites claires, des garde-fous intégrés et des principes de conception transparents. Cela nécessite une collaboration entre les développeurs, les régulateurs et les experts en éducation afin de garantir la sécurité sans limiter l’engagement positif ou les possibilités d’apprentissage.

Pour les dirigeants, il s’agit d’un appel à agir rapidement. Concevoir et déployer des outils d’IA avec des normes de sécurité intégrées sera bientôt une attente, et non une option. Les entreprises qui adoptent aujourd’hui des mesures de protection adaptées à leur âge aborderont les futures discussions réglementaires en position de force. Il s’agit de parvenir à une innovation responsable, de maintenir un accès ouvert aux technologies bénéfiques tout en réduisant le risque de préjudice pour les utilisateurs vulnérables.

Les entreprises considèrent les menaces existentielles de l’IA comme moins immédiates que les risques quotidiens de sécurité et de gouvernance.

Les dirigeants de Microsoft et de Meta ont souligné que si les risques théoriques liés à l’IA avancée méritent l’attention, les priorités actuelles consistent à gérer les défis opérationnels et de sécurité immédiats. Rob Sherman, directeur adjoint de la protection de la vie privée chez Meta, a décrit les progrès de l’IA comme étant progressifs, sans transformation soudaine qui redéfinirait la société du jour au lendemain. Ginny Badanes, directrice générale de Tech for Society chez Microsoft, a qualifié le risque existentiel de « faible probabilité mais à fort impact », soulignant la nécessité d’un équilibre entre les menaces théoriques à long terme et les risques tangibles auxquels les utilisateurs sont confrontés aujourd’hui.

Les deux entreprises ont détaillé leurs mesures de protection internes conçues pour faire face à ces risques immédiats, les exercices de « red-teaming » en cours, les évaluations des risques pour les nouveaux modèles d’IA et l’utilisation de cadres de « risques frontières » pour examiner les systèmes pour des questions de sécurité dans des domaines tels que la cybersécurité et l’autonomie. Ils ont également insisté sur la collaboration continue avec les gouvernements, qui détiennent des renseignements vitaux auxquels le secteur privé n’a pas accès. Ce partenariat permet d’évaluer plus précisément les implications pour la sécurité nationale avant que les systèmes d’IA ne soient utilisés par le public.

Pour les dirigeants, le message est pragmatique. L’affectation excessive de ressources à des risques futurs hypothétiques peut détourner l’attention de la résolution de problèmes réels et mesurables, tels que les biais de modélisation, la désinformation et les vulnérabilités en matière de sécurité. L’accent doit rester mis sur la mise en place de contrôles de sécurité structurés et vérifiables. Les entreprises qui excellent dans la gestion des risques opérationnels seront mieux préparées à faire face aux menaces avancées si et quand elles se matérialisent. La planification à long terme est importante, mais il en va de même pour l’ancrage de la gestion des risques dans les systèmes et les utilisateurs d’aujourd’hui.

La collaboration entre les différentes parties prenantes est essentielle pour garantir la sécurité de l’IA

La gestion de l’IA avancée nécessite une collaboration entre les gouvernements, les entreprises et les organismes de recherche indépendants. Ginny Badanes, directrice générale de Tech for Society chez Microsoft, a comparé la complexité de la gouvernance de l’IA aux défis mondiaux passés qui ont nécessité une supervision coordonnée. Elle a plaidé en faveur de l’interopérabilité et de normes communes, seule voie viable vers une gestion durable de la sécurité. Rob Sherman, directeur adjoint de la protection de la vie privée chez Meta, a convenu que si les garanties volontaires et les canaux de critique internes aux entreprises sont importants, ces mesures sont insuffisantes à elles seules. Kanishka Narayan, ministre britannique de l’IA, a également participé à la session en décrivant la manière dont l’Institut de sécurité de l’IA du Royaume-Uni encourage la coopération mondiale grâce à un accès préalable au déploiement de modèles avancés et à des travaux conjoints sur les normes d’évaluation internationales.

Il est de plus en plus admis que les normes mondiales ne peuvent pas dépendre uniquement de la bonne volonté des entreprises. Les décideurs politiques et les dirigeants réclament des cadres plus clairs qui définissent les responsabilités dans les différentes juridictions. Les priorités spécifiques comprennent le développement d’outils de provenance pour aider à identifier le contenu généré par l’IA, la normalisation des méthodes d’évaluation et la garantie que les systèmes d’IA à haute capacité font l’objet d’audits techniques cohérents dans toutes les régions. S’il n’est pas encore question de traités mondiaux contraignants, l’élan se fait sentir en faveur de mécanismes pratiques de surveillance partagée.

Pour les décideurs, la leçon est simple : aucune organisation ne peut gérer seule les risques liés à l’IA. Les gouvernements peuvent fournir des renseignements et des précisions juridiques, tandis que les entreprises apportent l’expertise technique et l’infrastructure nécessaires à la mise en œuvre des solutions. La collaboration entre les secteurs et les frontières crée de la prévisibilité et de la stabilité opérationnelle, deux conditions dont toute entreprise a besoin lorsqu’elle travaille avec des technologies capables d’exercer une influence rapide et à grande échelle. En agissant collectivement dès maintenant, nous pouvons établir des normes de confiance et de sécurité qui serviront de base à la prochaine décennie de croissance de l’IA.

Les politiques ne se concentrent plus sur les risques abstraits et à long terme liés à l’IA, mais sur les conséquences tangibles et quotidiennes pour l’homme.

Les gouvernements délaissent progressivement les scénarios d’IA lointains et théoriques pour s’intéresser aux questions qui influencent directement la vie des gens aujourd’hui. Kanishka Narayan, ministre britannique de l’IA, a noté que les récents sommets internationaux mettent de plus en plus l’accent sur les impacts pratiques et immédiats plutôt que sur les menaces spéculatives futures. Il a évoqué les discussions du sommet indien sur l’impact de l’IA, au cours duquel les décideurs se sont concentrés sur les expériences quotidiennes des utilisateurs, la transparence et la sécurité, contrairement aux événements précédents qui se concentraient sur les grandes mutations économiques ou les préoccupations existentielles. Cette transition représente un réalignement vers la résolution de problèmes qui affectent les individus, les entreprises et les institutions dès maintenant.

Cette approche plus terre-à-terre reflète l’évolution de la maturité de la gouvernance de l’IA. Les décideurs politiques comprennent que le fait de ne réglementer que les risques hypothétiques ne permet pas d’atténuer les dommages quotidiens, tels que la désinformation, les préjugés et la désorganisation de la main-d’œuvre. Les gouvernements élaborent actuellement des cadres qui mesurent l’impact de l’IA sur les personnes, et pas seulement sur les économies. Ces cadres comprennent des lignes directrices éthiques plus claires, des mécanismes d’évaluation pour la transparence et des paramètres qui protègent les droits des utilisateurs dans les applications du monde réel. Il s’agit d’une étape vers la construction d’une confiance publique durable tout en maintenant des incitations à l’innovation pour l’industrie.

Pour les dirigeants, ce changement indique la direction que prennent les priorités politiques et commerciales. Il ne suffit pas de développer des solutions d’IA puissantes ; elles doivent démontrer une réelle valeur sociale et économique tout en préservant la confiance des utilisateurs. Investir dans l’équité, l’accessibilité et l’explicabilité permettra d’aligner les stratégies des entreprises sur les nouvelles attentes des pouvoirs publics. Les organisations qui prennent ces responsabilités au sérieux se positionneront comme des leaders crédibles dans un paysage de plus en plus défini par la responsabilité et les résultats humains mesurables.

Dernières réflexions

L’IA n’est plus une technologie de niche. Il s’agit d’une infrastructure qui fait partie intégrante du fonctionnement quotidien des économies, des gouvernements et des personnes. Pour les dirigeants, cela signifie que les choix faits aujourd’hui détermineront non seulement qui gagnera dans l’économie de l’IA, mais aussi comment ce succès sera obtenu de manière responsable.

La demande de coordination internationale, de contrôle transparent et de responsabilité claire n’est plus théorique. C’est une réalité commerciale. Les entreprises qui mettent en place des systèmes axés sur la confiance, la sécurité et les droits de l’homme façonneront les marchés et fixeront les normes que les autres devront suivre. Celles qui évitent l’alignement s’exposent à la fragmentation, à des maux de tête liés à la conformité et à des réactions négatives de l’opinion publique qui ralentissent l’innovation.

Ce moment exige des dirigeants une vision à long terme. La collaboration au-delà des frontières et des secteurs n’a pas pour but de réglementer pour le plaisir, mais de créer de la stabilité dans un environnement qui évolue rapidement. Les dirigeants qui accordent aujourd’hui la priorité à la gouvernance éthique ne se contenteront pas de protéger leur organisation contre les risques, ils se positionneront comme des acteurs crédibles et influents dans la prochaine vague de progrès de l’IA à l’échelle mondiale.

L’impact de l’IA sera défini par la conception, et non par le hasard. Il incombe désormais aux dirigeants de veiller à ce qu’elle fasse progresser à la fois le progrès et l’humanité.

Alexander Procter

mars 31, 2026

18 Min

Experts Okoone
PARLONS-EN !

Un projet en tête ?
Planifiez un appel de 30 minutes avec nous.

Des experts senior pour vous aider à avancer plus vite : produit, tech, cloud & IA.

Veuillez saisir une adresse email professionnelle valide.