L’interdiction de réglementer l’IA pendant 10 ans supprimerait des protections

Aux États-Unis, une proposition de loi vise à empêcher les États et les collectivités locales de réglementer l’intelligence artificielle pendant dix ans. Ce n’est pas une gouvernance responsable. C’est un recul alors que nous devrions aller de l’avant.

Plus de 140 groupes de défense des droits civils et de protection des consommateurs, dont le Centre pour la démocratie et la technologie (CDT), dénoncent cette situation. Ils voient clairement les risques. Si ce bloc fédéral est adopté, il annulera des centaines de lois déjà en cours d’élaboration dans le système américain, dont plus de 500 ont été introduites ou promulguées rien que cette année dans environ deux tiers des États. Des lois qui traitent de questions réelles : une IA peut-elle prendre une décision concernant votre emploi, vos dossiers médicaux ou votre verdict de culpabilité au tribunal ? Ces questions ne sont pas hypothétiques. Elles sont réelles et déjà en jeu.

Ce qui est important ici, c’est que les gouvernements des États, qu’ils soient rouges ou bleus, ont élaboré une législation qui répond aux besoins spécifiques de leurs communautés. C’est une bonne chose. L’IA ne fonctionne pas de la même manière partout. On ne déploie pas un algorithme d’optimisation du trafic dans le Montana rural de la même manière qu’à New York. Le contexte local est important. Et les lois locales le comprennent.

Laisser une clause fédérale effacer tout cela, tout en n’offrant aucune solution de remplacement, est imprudent. C’est l’équivalent politique de débrancher les freins d’une voiture autonome parce que vous pensez qu’elle se débrouillera toute seule.

Les dirigeants doivent en prendre note : un vide réglementaire ne nuit pas seulement aux consommateurs, il crée de l’incertitude pour les entreprises. Si votre produit d’IA est développé aujourd’hui dans un environnement non réglementé, il pourrait faire l’objet d’un retour en arrière demain, lorsque le public se lassera des conséquences involontaires. La mise en place d’une conformité précoce, alignée sur les attentes locales et fédérales, n’est pas de la paperasserie, c’est de la stabilité opérationnelle.

La réglementation de l’IA n’est pas facultative, elle est essentielle pour prévenir les dommages dans le monde réel.

L’IA est puissante. Mais la puissance sans marge d’erreur est une chose dangereuse à déployer à grande échelle.

Aujourd’hui encore, nous constatons que les systèmes d’IA ont des ratés, que les outils d’embauche sont biaisés, que les recommandations de diagnostic médical sont erronées et que la reconnaissance faciale n’est pas fiable lorsqu’il s’agit de prendre des décisions en matière de sécurité publique. Le problème n’est pas l’IA elle-même. C’est le manque de responsabilité. Ces outils touchent des millions de vies, souvent de manière invisible. La plupart des gens ne savent pas qu’un algorithme prend une décision à la place d’un être humain. C’est pourquoi le contrôle est une priorité, et non un luxe.

Travis Hall, directeur de l’engagement des États au CDT, dit ce qu’il en est : une zone grise juridique. Les développeurs travaillent sans feuille de route, sans règles et sans responsabilité. Ce n’est pas de l’innovation. Il s’agit d’une expérimentation aveugle à grande échelle.

Si la confiance est perdue, elle n’est pas facile à rétablir. Les entreprises qui misent sur l’IA pour leur avenir ont besoin de l’adhésion du public. Elles ont besoin que leurs employés croient en ces outils. Elles ont besoin que les clients se sentent protégés. Cela n’est possible que si les limites sont claires. Les garde-fous ne tuent pas l’élan, ils vous aident à pousser plus loin sans vous écraser.

Les dirigeants doivent se concentrer sur un point : la clarté réglementaire est un facteur de retour sur investissement à long terme. Elle réduit les risques de litige, renforce la confiance du public et réduit les frictions au sein de la main-d’œuvre. Pensez au cycle de vie de l’IA, aux concepteurs, aux ingénieurs, aux testeurs, aux responsables de produits. Chaque étape bénéficie de la connaissance des paramètres dès le début.

L’absence de réglementation n’est pas synonyme de liberté. Cela signifie le chaos plus tard, généralement au moment où cela coûte le plus cher. Prenez de l’avance dès aujourd’hui ou croulez sous la complexité plus tard.

Une approche exclusivement fédérale compromet la sécurité publique et favorise les intérêts des entreprises

Les partisans de la proposition de moratoire sur l’IA affirment qu’une norme fédérale unique est préférable à un ensemble de lois nationales. Mais le problème est qu’ils ne proposent pas de norme fédérale. Ils ne proposent rien. Ils font table rase de toutes les protections, ne laissant aucune règle en place pour les développeurs, les gouvernements ou le public.

Ce n’est pas stratégique. C’est de l’abandon.

Parlons d’abord du calendrier. Le gouvernement fédéral n’a pas encore adopté de cadre réglementaire pour l’IA. Offrir une interdiction générale de 10 ans dès maintenant signifie qu’il y aura une décennie entière de silence politique, alors que les systèmes d’IA continuent à s’étendre dans les infrastructures critiques et les processus de prise de décision. Si nous supprimons les seules protections efficaces, celles mises en place par des États comme le Colorado, l’Illinois et l’Utah, nous ne ferons qu’accroître l’exposition au risque.

Travis Hall, de la CDT, est très clair sur les conséquences. Selon lui, le projet de loi est « un cadeau aux plus grandes entreprises technologiques au détriment des utilisateurs », c’est-à-dire des personnes qui dépendent de ces services tous les jours pour travailler, accéder aux soins de santé, à l’éducation et aux services publics. Selon M. Hall, en l’absence de toute réglementation, il n’existe aucun mécanisme permettant de responsabiliser les développeurs ou les agences de déploiement. Cela élimine les freins et les contrepoids, précisément au moment où nous en avons le plus besoin.

Les dirigeants doivent prendre en compte les risques opérationnels liés à l’absence de structure. Lorsque les entreprises opèrent sans règles définies et sans protection des consommateurs, le marché devient vulnérable aux atteintes à la réputation, aux recours collectifs et à l’escalade de la méfiance du public. Cela ralentit l’innovation, non pas parce que le public ne veut pas de la technologie, mais parce qu’il n’a pas confiance dans la manière dont elle est construite ou utilisée.

Ne confondez pas déréglementation et progrès. Si la réglementation disparaît, les entreprises gagneront peut-être en flexibilité à court terme, mais perdront en stabilité à long terme.

État par État, les lois sur l’IA sont plus alignées que ne le prétendent les opposants

L’un des principaux arguments avancés par les législateurs pour défendre le moratoire est la crainte d’un « patchwork ». Le fait que différents États aient des règles différentes va semer la confusion dans l’esprit des développeurs, bloquer le déploiement et tuer l’élan. Mais ce n’est pas ce que nous voyons se produire.

Plus d’une douzaine d’États ont proposé ou adopté des lois utilisant un langage presque identique. Nombre d’entre elles ont été rédigées avec l’aide des mêmes groupes industriels qui font actuellement pression pour obtenir la préemption fédérale. Ce n’est pas de la fragmentation. Il s’agit d’un alignement sur l’adaptation locale, et les données le confirment.

Des États comme l’Arkansas, le Kentucky et le Montana ont adopté des lois pour réglementer l’acquisition et l’utilisation de l’IA par les organismes publics. Ces lois ne sont pas radicalement différentes les unes des autres. Elles sont spécifiques au contexte mais ont un objectif commun : l’intégrité, la sécurité et la transparence.

Il existe également un précédent. Dans le domaine de la protection de la vie privée, la même prédiction a été faite. Les opposants ont prévenu que les lois nationales sur la protection de la vie privée allaient diverger considérablement. Mais ce qui s’est produit, c’est une convergence autour d’une poignée de principes fondamentaux, de nombreux États ont adopté des lois presque identiques, qui étaient gérables même au niveau de l’entreprise. Cela rend l’argument de la « confusion » moins crédible.

Les dirigeants doivent aborder cette question avec clarté. La certitude réglementaire ne signifie pas des règles identiques partout, mais la connaissance du champ d’application et des attentes au sein de vos environnements opérationnels. Cela signifie également qu’il faut comprendre où l’adaptation vaut la peine d’être investie. Une entreprise qui peut se conformer à des lois de protection des consommateurs significatives au niveau des États est plus résiliente et mieux préparée à des politiques fédérales inévitables à l’avenir.

L’argument selon lequel la variation rend la réglementation de l’IA inapplicable ne tient pas. Il simplifie à l’extrême un défi gérable et ignore les systèmes déjà en place qui garantissent la cohérence entre les juridictions.

La comparaison entre l’interdiction de la réglementation de l’IA et la loi sur la liberté fiscale en matière d’internet n’est pas pertinente.

Les partisans du moratoire sur l’IA citent souvent l’Internet Tax Freedom Act (ITFA) des années 1990 comme preuve qu’une approche non interventionniste peut conduire à une croissance explosive. Mais la comparaison n’est pas valable. Les fondements et la fonction de l’IA sont fondamentalement différents des débuts de l’internet. Supprimer les protections des consommateurs n’est pas la même chose que de supprimer les taxes numériques.

Voici ce que l’ITFA a réellement fait. Il a temporairement empêché les États de taxer l’accès à l’internet. Cela a permis de réduire les coûts et d’accroître l’accessibilité. Personne ne s’opposait à la protection des droits des utilisateurs ou à la transparence du fonctionnement des services internet. Il s’agissait de développer rapidement l’infrastructure et l’utilisation.

Le moratoire sur l’IA, quant à lui, dit effectivement aux gouvernements qu’ils ne peuvent pas agir pour protéger leurs citoyens, même lorsque des préjudices réels sont déjà documentés. La suppression de la réglementation au niveau de l’État n’améliore pas l’accès, ne fait pas baisser les prix et ne stimule pas la demande. Elle élimine la surveillance dans un espace qui s’étend aux soins de santé, à la finance, à l’éducation, à l’application de la loi et à bien d’autres domaines encore. Ces utilisations n’affectent pas seulement la croissance. Elles ont une incidence sur les résultats humains.

Le CDT et d’autres soutiennent que les systèmes d’IA, en particulier les systèmes de prise de décision, sont déjà utilisés dans des environnements sensibles où les failles sont lourdes de conséquences. Il ne s’agit pas de risques abstraits. Nous avons vu des systèmes amplifier les préjugés raciaux et sexistes, mal identifier des individus dans des flux de surveillance, automatiser des décisions d’embauche avec des filtres discriminatoires et produire des diagnostics erronés dans des environnements médicaux. Ces résultats ne sont pas rares. Ils sont récurrents.

Les dirigeants devraient être d’accord sur un point : la croissance dans tout secteur de transformation doit s’accompagner d’une responsabilité. La suppression du contrôle réglementaire sans alternative fédérale ne stimule pas l’innovation, elle affaiblit l’intégrité du système, réduit la confiance du public et augmente le risque politique d’une réaction brutale.

La valeur à long terme de l’IA La valeur à long terme de l’IA est liée à sa fiabilité. Le marché récompense les déploiements qui se font dans le respect de l’éthique et qui inspirent confiance aux utilisateurs finaux. Ce n’est pas en gelant les États que l’on y parviendra. On y parvient en permettant l’adaptation, l’examen et l’amélioration constante à tous les niveaux de gouvernance. Les décisions prises au nom de l’expansion ne doivent pas ignorer la responsabilité de protéger.

Principaux enseignements pour les dirigeants

  • Le recul de la réglementation sur l’IA supprime des protections essentielles : Une interdiction fédérale de 10 ans sur les lois étatiques et locales en matière d’IA désactive plus de 500 réglementations actives ou proposées, supprimant des protections essentielles pour les consommateurs à travers les États-Unis. Les dirigeants devraient reconnaître qu’il s’agit d’une mesure à haut risque qui augmente l’exposition à des dommages juridiques, éthiques et de réputation.
  • La surveillance de l’IA renforce la confiance et réduit les risques liés au système : Sans réglementation, les systèmes d’IA peuvent produire des résultats biaisés, opaques ou nuisibles dans des secteurs tels que l’emploi, les soins de santé et la justice pénale. Les dirigeants devraient investir dès maintenant dans des cadres d’IA responsables afin de renforcer la confiance et d’anticiper les futurs défis réglementaires ou juridiques.
  • L’absence d’alternative fédérale laisse un vide de conformité : le moratoire met un terme à la gouvernance locale sans proposer de normes fédérales, créant ainsi un vide réglementaire qui sert les intérêts des grandes entreprises technologiques tout en compromettant la responsabilité publique. Les décideurs ne devraient pas attendre que le gouvernement fédéral clarifie la situation. En s’alignant de manière proactive sur des pratiques de conformité rigoureuses, ils protègent la résilience à long terme.
  • Les allégations de confusion réglementaire manquent de preuves : Malgré les mises en garde de l’industrie contre une mosaïque de règles, la législation des États a largement convergé autour d’un langage et de principes similaires. Les chefs d’entreprise devraient s’intéresser très tôt aux tendances au niveau de l’État afin de rationaliser la conformité et de façonner la réglementation future.
  • La comparaison entre l’IA et les débuts de l’internet est erronée : L’Internet Tax Freedom Act a supprimé les obstacles financiers à l’accès, tandis que le moratoire sur l’IA supprime les protections des consommateurs contre les technologies à haut risque. Les dirigeants devraient rejeter les comparaisons trop simples et évaluer la gouvernance de l’IA sur la base des impacts dans le monde réel et des risques spécifiques au secteur.

Alexander Procter

juin 10, 2025

12 Min