Le Sénat a rejeté à une écrasante majorité une interdiction de 10 ans des réglementations nationales en matière d’intelligence artificielle.

Le Sénat américain vient d’envoyer un message très clair : Les États vont réglementer l’intelligence artificielle, que les législateurs fédéraux soient ou non prêts à le faire. Une disposition qui aurait empêché tout État de créer ou d’appliquer des réglementations en matière d’intelligence artificielle pendant une décennie a été retirée du projet de loi de finances du président Trump. pendant une décennie a été retirée du projet de loi de finances du président Trump lors d’un rare vote bipartisan à 99 contre 1.

La conclusion est simple : vous n’obtiendrez pas de sitôt un champ réglementaire calme et uniforme. Le gouvernement fédéral a clairement indiqué qu’il n’avait pas l’intention d’empêcher les États d’agir de leur propre chef. Les entreprises qui travaillent dans plusieurs États devront gérer des exigences de conformité fragmentées et des mandats potentiellement contradictoires. C’est un travail supplémentaire, mais c’est la réalité.

Environ deux tiers des États américains ont déjà pris les choses en main, avec plus de 500 projets de loi relatifs à l’IA proposés ou adoptés en 2024. Ces lois couvrent tous les domaines, des politiques d’approvisionnement aux protections des droits civils. Si votre produit ou service touche de près ou de loin à l’IA, c’est important.

L’idée de bloquer la réglementation des États était de gagner du temps. Il s’agissait de créer un cadre national cohérent et d’éviter un patchwork de 50 États. Telle était la théorie. Mais une théorie ne tient pas si elle ne tient pas compte de l’opinion publique et de la dynamique législative. Le vote du Sénat témoigne d’une position bipartisane unifiée : la gouvernance au niveau de l’État est nécessaire.

Pour les entreprises qui construisent ou déploient l’IA, la stratégie doit changer. La conformité ne peut pas être traitée comme une case à cocher à un stade avancé. Il s’agit désormais d’une considération en temps réel. Soyez proactif avec les législateurs locaux, apprenez les différences entre les points de vue de la Californie et du Kentucky sur la responsabilité de l’IA, et investissez dans des systèmes internes qui peuvent s’adapter à la complexité de la réglementation.

Les dirigeants du secteur et les législateurs ont soutenu l’interdiction afin d’éviter la fragmentation du paysage.

Tout le monde n’a pas été d’accord avec la décision du Sénat, et cela vaut la peine d’y réfléchir. Les grands acteurs, Google, Meta, Microsoft, OpenAI, Amazon, étaient tous en faveur du moratoire sur la réglementation de l’IA au niveau de l’État. réglementation de l’IA au niveau de l’État. Ils avaient une raison claire : un paysage fragmenté ralentit le déploiement des produits, complique la conformité juridique et augmente les coûts. La logique suit son cours. Si chaque État définit différemment l’éthique de l’IA ou la protection de la vie privée, vous êtes confronté à cinquante réalités à la fois. C’est inefficace.

Les partisans de l’interdiction invoquent la loi sur la liberté fiscale en matière d’Internet (Internet Tax Freedom Act) de la fin des années 1990. Cette loi a permis aux entreprises de l’internet de ne pas être soumises à des réglementations spécifiques à l’État, suffisamment longtemps pour que le secteur se développe. Certains législateurs ont fait valoir que l’IA avait besoin de la même marge de manœuvre. Le sénateur Ted Cruz s’est aligné sur ce point de vue, soulignant que la croissance des entreprises et la compétitivité nationale étaient en jeu, en particulier face à l’accélération de l’IA en Chine.

Mais cet argument suppose que l’IA se comporte comme l’internet à ses débuts. Ce n’est pas le cas. L’IA n’est pas une technologie unique, c’est un ensemble de systèmes qui s’adaptent en fonction du cas d’utilisation, de l’apport de données et de l’objectif. L’application d’une politique nationale unique risque de ne pas tenir compte des nuances régionales. Un chatbot au Texas et un véhicule autonome à New York ne sont pas confrontés aux mêmes attentes ou risques sociétaux.

D’un point de vue commercial, des règles uniformes semblent excellentes, jusqu’à ce qu’elles ne couvrent pas les cas marginaux. C’est alors que les choses se cassent, que les gens se plaignent et que la réglementation arrive en force. La pression en faveur d’une approche exclusivement fédérale n’était pas seulement une question de clarté, c’était aussi une question de contrôle. Pour les géants de la technologie, cela signifiait moins de contacts avec les législateurs et plus d’espace pour s’autogouverner. Les opposants n’ont pas eu tort d’y voir un problème.

Si vous êtes un décideur dans le domaine de l’IA, ne perdez pas de vue ces deux réalités. L’IA a besoin de vitesse, c’est certain. Mais la vélocité sans gouvernance est très risquée. Dès que vous déployez des produits dans les domaines de la santé, de l’éducation, de la finance ou de tout ce qui est lié à la confiance du public, vous entrez dans le domaine de la réglementation. Des directives fédérales uniformes seraient utiles. Mais ce n’est pas ce qui s’est passé. Soyez prêt à intégrer la conformité dans vos plans de mise à l’échelle dès le premier jour.

Les opposants ont fait valoir que la suppression de la surveillance par l’État éliminerait des protections cruciales contre les risques liés à l’IA

La principale préoccupation des détracteurs du moratoire fédéral sur l’IA était simple : si l’on retire aux États le pouvoir de réglementer l’IA, on crée un vide en matière de gouvernance. Ce vide n’est pas comblé par rien, il est comblé par les décisions incontrôlées des entreprises. Et dans un secteur aussi dynamique que l’intelligence artificielle, s’en remettre uniquement à l’autorégulation de l’industrie ne suffira pas.

Les groupes axés sur les libertés civiles et les droits numériques ont clairement souligné ce point. Leur argument n’était pas technique, il était humain. Sans surveillance locale, les gens sont plus vulnérables aux décisions biaisées, aux abus de surveillance, à la discrimination algorithmique et aux atteintes à la vie privée, autant d’éléments que les systèmes d’IA peuvent accélérer à grande échelle. Étant donné que les pratiques de test et de déploiement de l’IA sont très inégales d’une entreprise à l’autre, il ne faut pas négliger le fait que les États agissent en tant que régulateurs réactifs.

Travis Hall, directeur de l’engagement des États au Centre pour la démocratie et la technologie (CDT), l’a bien résumé : L’IA n’est pas monolithique. Il ne s’agit pas d’une plateforme ou d’une application unique. Elle change en fonction du contexte, de la manière dont elle est utilisée, de l’endroit où elle est déployée, de ce qu’elle affecte. C’est pourquoi la gouvernance au niveau de l’État n’est pas seulement utile, elle est aussi pratique. Elle permet à l’élaboration des politiques de rester proche des applications du monde réel et des attentes du public.

Pour la planification au niveau exécutif, cela introduit une exigence opérationnelle : ne supposez pas que votre capacité d’IA est extensible sans friction simplement parce qu’elle est techniquement solide. Les autorisations éthiques et légales existent désormais à plusieurs niveaux de gouvernement. Tenez un audit permanent des lieux où vos systèmes d’IA sont déployés, des règles nationales applicables et de la manière dont l’application ou les précédents juridiques pourraient évoluer en fonction des tendances émergentes en matière de protection des consommateurs.

L’idée que nous puissions suspendre la surveillance au niveau de l’État pendant une décennie, en particulier alors que la technologie évolue plus rapidement que ne peut le faire un régulateur, n’allait jamais plaire aux électeurs, aux groupes de défense ou aux fonctionnaires tournés vers l’avenir. C’est pourquoi le moratoire s’est effondré sous la pression. Quelle que soit l’évolutivité de votre technologie, la gouvernance doit rester adaptable là où les risques se font sentir, c’est-à-dire souvent au niveau local.

Le vote du Sénat reflète le soutien bipartisan en faveur de l’habilitation des États à gouverner l’IA.

Il n’y a plus beaucoup de bipartisme à Washington, mais il s’est manifesté dans le domaine de la réglementation de l’IA. Les législateurs des deux partis ont exprimé leur frustration face à l’inaction du Congrès concernant les principales préoccupations liées à l’IA : les « deepfakes », les biais algorithmiques et les atteintes à la vie privée. Au lieu de créer un cadre fédéral complet, le Congrès a agi lentement. En conséquence, les États sont intervenus, et les législateurs soutiennent désormais ces initiatives au lieu d’essayer d’y passer outre.

Les sénatrices Marsha Blackburn (R-TN) et Maria Cantwell (D-WA) ont directement dénoncé ce manque de dynamisme. Elles ont critiqué le Congrès pour avoir laissé le chaos de la désinformation et des systèmes opaques s’installer sans contrôle. En réponse, elles ont soutenu le renforcement de l’implication des États, indiquant que l’habilitation des gouverneurs et des assemblées législatives n’est pas seulement une option de second choix, c’est actuellement la seule qui fonctionne.

Ce qui est intéressant ici, c’est la façon dont cette réaction bipartisane est apparue dans des bureaux idéologiquement différents. Le sénateur Bernie Sanders (I-VT), loin d’être un allié habituel de la sénatrice Blackburn, a publiquement fait l’éloge de son leadership dans la défense de l’autorité de l’État sur cette question. Un tel soutien de la part de tous les partis a du poids. Il montre que la frustration suscitée par l’impasse fédérale actuelle est grande et qu’il ne s’agit pas d’une performance, mais d’une action concrète.

Pour les dirigeants, cela signifie que les décisions politiques liées à l’IA vont émaner des États et pas seulement des agences fédérales. Les gouverneurs, les procureurs généraux et les organismes de réglementation locaux prendront des mesures. Cela a des implications opérationnelles : votre équipe chargée des affaires publiques et votre conseiller en conformité ne peuvent plus se contenter de se concentrer sur Washington. Vous devez avoir des yeux sur Sacramento, Austin, Helena et les capitales d’État auxquelles vous n’aviez peut-être pas prêté attention auparavant.

Considérez ce vote du Sénat pour ce qu’il est, à savoir un changement distinct vers une gouvernance distribuée de l’IA aux États-Unis. Attendez-vous à des projets de loi avec différents modèles d’application, règles de transparence et normes de responsabilité. Votre plan de déploiement de l’IA doit en tenir compte. Se préparer à un contrôle au niveau de l’État n’est pas facultatif, c’est la nouvelle stratégie de base.

Une proposition de dernière minute du GOP lie le financement fédéral de la large bande en milieu rural

Les législateurs républicains ont tenté de sauver le moratoire sur la réglementation de l’IA en révisant son champ d’application. Ils ont proposé de ramener la durée proposée de dix à cinq ans et ont lié les subventions fédérales pour le haut débit rural au respect de la réglementation, récompensant essentiellement les États qui réduisent la surveillance de l’IA. Il s’agit là d’une démarche de compromis, qui consiste à utiliser le levier financier pour inciter les gouvernements des États réticents à s’aligner.

Cela n’a pas fonctionné.

La révision n’a pas réussi à changer la donne. Ses détracteurs y ont vu non pas un compromis constructif, mais une tentative transparente d’affaiblir la surveillance par le biais d’un financement conditionnel. En liant des infrastructures essentielles telles que l’accès à la large bande à l’indulgence réglementaire, les législateurs ont sapé la confiance des défenseurs des libertés civiles et des dirigeants des États, qui sont restés fermes : les garde-fous ne sont pas facultatifs, surtout pas en échange d’incitations financières.

Du point de vue des entreprises, cela renforce deux choses : premièrement, la résistance à la réglementation ne sera pas réduite au silence par des subventions ou des tactiques dilatoires. Deuxièmement, le coût politique d’une apparente préférence pour la liberté de l’industrie au détriment de la protection du public reste élevé. Les décideurs doivent s’attendre à ce que d’autres accords similaires, liant l’approvisionnement en infrastructures ou en investissements à la déréglementation de l’IA, se heurtent à un scepticisme et à une résistance généralisés.

Si vous occupez une position de leader et prévoyez des déploiements à grande échelle, en particulier dans les régions rurales ou mal desservies, c’est important. Le succès sur ces marchés ne dépend pas seulement de la qualité du produit ou de la connectivité ; il dépend aussi de votre capacité à gérer les sensibilités politiques liées à la responsabilité de l’IA. L’immunité contre la réglementation des États ne fera pas partie du package. L’alignement sur les attentes de l’État le sera.

L’échec du compromis a également permis de tirer un enseignement opérationnel essentiel : l’appétit pour la déréglementation, en particulier en échange de gains d’infrastructure, s’effondre sous la pression du public et du législateur. Une stratégie cohérente de mise en conformité doit exister, quelles que soient les propositions fédérales à venir.

La réglementation de l’IA au niveau de l’État est vaste et se développe rapidement

Les États ne restent pas inactifs. Depuis cette année, environ deux tiers des États américains ont proposé ou adopté plus de 500 textes législatifs axés sur l’IA. C’est une dynamique que vous ne pouvez pas ignorer. Et surtout, ce mouvement n’est pas limité à une région ou à une tendance politique. Les États rouges comme l’Arkansas et le Kentucky mettent en place des contrôles de l’IA dans les marchés publics. Les États bleus et les États en transition, comme le Colorado, l’Illinois et l’Utah, travaillent sur les droits des consommateurs et les protections des libertés civiles liées aux systèmes d’IA.

Il en ressort une diversification stratégique de la manière dont les États envisagent les risques et les responsabilités liés à l’IA. Qu’il s’agisse de l’intégrité du secteur public, de la protection de la vie privée ou de l’équité algorithmique, les États exercent une pression sous de multiples angles, et cette pression se traduit par des lois applicables.

Cela a des conséquences immédiates pour les entreprises qui développent ou déploient des produits basés sur l’IA. Vous opérez désormais dans une matrice juridictionnelle, avec des normes de contrôle et des sanctions variables. Un plan de gouvernance unique n’est plus réaliste. Si votre entreprise considère encore la conformité comme un effort fédéral unique, vous êtes à la traîne.

Il existe également un rythme dans l’introduction de ces lois. Les assemblées législatives locales réagissent à des études de cas en temps réel à l’intérieur de leurs frontières, à des biais dans les outils d’embauche, à une mauvaise utilisation de la surveillance ou à un comportement autonome inexplicable. Ce n’est donc pas abstrait. La nécessité de règles est confirmée par les événements sur le terrain, et les décideurs politiques réagissent rapidement.

Du point de vue du leadership, cela nécessite un investissement. Élaborer des cadres juridiques permettant de définir les exigences juridictionnelles. Travaillez avec les équipes chargées des politiques pour suivre l’évolution des États chaque semaine et non chaque trimestre. Assurez la flexibilité de vos produits pour qu’ils puissent absorber les modifications régionales. Plus vous gérerez rapidement cette complexité, plus vous aurez de poids sur les marchés qui surveillent de près l’IA.

La proposition de moratoire a été considérée par beaucoup comme intéressée

La réaction contre le moratoire sur l’IA n’était pas seulement une question de structure politique, c’était aussi une question d’intention. Les opposants à cette disposition y ont vu une manœuvre stratégique des entreprises technologiques dominantes pour éviter tout contrôle. Le soupçon était clair : l’interdiction n’était pas conçue pour protéger l’innovation, mais pour soustraire les intérêts des entreprises à la responsabilité de l’État.

Plusieurs groupes de défense, législateurs et fonctionnaires ont souligné ce point. Ils ont fait valoir qu’en supprimant le pouvoir des États de réglementer l’IA, le moratoire créerait un vide, laissant aux entreprises privées le soin de déterminer les niveaux de risque acceptables, les limites éthiques et les procédures de recours. À l’heure où les préjudices liés à l’IA, des biais algorithmiques aux décisions automatisées opaques, font l’objet d’un examen minutieux à l’échelle mondiale, la suppression des contrôles et des équilibres n’a pas été jugée acceptable.

Sarah Huckabee Sanders, gouverneure de l’Arkansas et ancienne attachée de presse de la Maison Blanche sous Trump, a pris la tête d’une lettre signée par les gouverneurs du GOP qui s’opposent à la mesure. C’est remarquable. Lorsque des gouverneurs du même parti que le promoteur d’un projet de loi font activement campagne contre celui-ci, cela indique que la question a largement dépassé les lignes partisanes. Leur position est simple : les autorités locales doivent conserver le droit d’imposer des mesures de protection fondées sur les résultats concrets qu’elles constatent de première main.

Pour les équipes dirigeantes du secteur de l’IA et de la technologie, c’est le signe d’une diminution de la couverture politique pour les limites réglementaires floues. Le discours a changé, les entreprises technologiques ne sont plus automatiquement traitées comme des innovateurs neutres. Elles sont considérées comme des agents responsables dont les systèmes doivent être contraints autant qu’ils doivent être activés.

Anticipez une surveillance accrue au niveau de l’État, en particulier pour les systèmes en contact avec les consommateurs ou les modèles à fort impact dans des environnements sensibles tels que l’emploi, les soins de santé, les services financiers ou l’application de la loi. Adaptez vos équipes de communication stratégique et de conformité en conséquence. Privilégier la transparence, faire correspondre les produits aux attentes juridiques locales et s’engager très tôt auprès des autorités de réglementation des États sera bien plus payant que de faire pression pour obtenir de larges exemptions qui suscitent une résistance générale.

Le projet de loi de finances a été adopté de justesse, révélant des divisions politiques au sein même du GOP.

Bien que le Sénat ait adopté la proposition de budget plus large du président Trump, la victoire a été très serrée, décidée par un vote de 51 à 50, le vice-président J.D. Vance étant celui qui a brisé l’égalité des voix. Sur le papier, le projet de loi de finances s’articule autour de réductions d’impôts et de dépenses, mais le véritable enjeu pour les dirigeants de l’IA est la division interne qu’il a révélée au sein du groupe parlementaire du Parti républicain (GOP).

Trois sénateurs républicains, Thom Tillis (Caroline du Nord), Susan Collins (Maine) et Rand Paul (Kentucky), ont voté contre le projet de loi. Leur désaccord n’était pas nécessairement aligné, mais chaque vote témoigne d’un malaise à l’égard des dispositions intégrées dans une législation plus large, en particulier les dispositions controversées telles que le moratoire sur l’IA, aujourd’hui rejeté. Ces lignes de fracture sont importantes.

Pour les dirigeants d’entreprise qui travaillent à l’intersection de la technologie et de la politique, il s’agit d’un avertissement : ne supposez pas que l’alignement idéologique garantit le soutien législatif. Ces divisions au sein des partis, en particulier sur les questions touchant aux libertés civiles ou à la portée de la réglementation, montrent que la politique technologique est désormais un champ de bataille nuancé au sein des deux partis. La gouvernance de l’IA n’est plus une question de niche, elle est au cœur des débats nationaux sur la protection de la vie privée, l’éthique, l’innovation et la souveraineté des États.

Les conséquences pour votre entreprise sont claires. Vous ne pouvez pas compter sur la législation fédérale pour vous couvrir ou vous éclairer de sitôt. L’incertitude politique est la norme à court terme. Mais il est possible de gérer cette incertitude en faisant preuve de prévoyance. Suivez l’évolution de la situation politique au-delà des gros titres, nouez des relations avec les législateurs des deux partis et faites pression pour obtenir des éclaircissements lorsque c’est possible. Et surtout, planifiez votre stratégie d’exécution avec une capacité d’adaptation intégrée, car les règles ne sont pas fixes, et le processus législatif en est le reflet.

Cette courte victoire budgétaire, dépouillée de ses restrictions en matière d’IA, renforce ce qui est déjà évident pour quiconque dirige une entreprise dans ce paysage : les stratégies réactives ne suffiront pas. Un alignement proactif de la gouvernance, une réponse politique agile et une préparation au niveau de l’État définiront les entreprises qui iront de l’avant sans perturbation.

Dernières réflexions

Si vous dirigez une entreprise qui construit, déploie ou investit dans l’IA, ce n’est pas le moment de se baser sur des hypothèses. Le rejet par le Sénat (99 contre 1) du moratoire sur l’IA montre clairement une chose : la réglementation n’est pas près de disparaître et elle ne sera pas centralisée. Ce sont les États qui mènent aujourd’hui la conversation, avec rapidité, élan et soutien bipartisan.

Que vous travailliez dans le domaine des logiciels d’entreprise, des infrastructures, des technologies grand public ou de l’automatisation, votre stratégie en matière d’IA doit tenir compte d’un environnement politique dynamique et multijuridictionnel. S’appuyer uniquement sur les règles fédérales n’est plus un plan viable, si tant est qu’il l’ait jamais été. Le périmètre réglementaire s’étend au niveau des États, et chaque marché sur lequel vous pénétrez pourrait bientôt comporter ses propres exigences juridiques et éthiques.

N’attendez pas la feuille de route. Construisez l’infrastructure en interne. Cela signifie qu’il faut aligner les équipes juridiques, techniques et de conformité pour suivre l’évolution de la législation, intégrer de la flexibilité dans vos systèmes et s’engager de manière proactive avec les décideurs politiques, État par État. La voie à suivre ne consiste pas à éviter la réglementation, mais à s’adapter à la réalité selon laquelle la surveillance fait partie de l’échelle opérationnelle.

Les entreprises qui intègrent ce principe aujourd’hui seront à la tête de la prochaine phase de l’IA en termes de résilience et de confiance du public.

Alexander Procter

septembre 15, 2025

20 Min