Régulation IA : les États-Unis freinent encore les États
Imaginez un monde où votre ville décide demain que chaque application d’intelligence artificielle doit être auditable, transparente et respectueuse de vos données personnelles. Et imaginez maintenant que Washington, d’un simple coup de tampon, interdise à jamais à votre État de poser la moindre règle. C’est exactement ce qui a failli arriver… pour la deuxième fois en quelques mois.
Le 2 décembre 2025, la tentative la plus récente d’insérer un moratoire géant sur la régulation locale de l’IA dans le grand texte de défense annuel (le NDAA) a été repoussée. Un échec qui en dit long sur les tensions actuelles entre la Silicon Valley, le futur administration Trump et une partie grandissante du Congrès, y compris chez les républicains.
Un nouvel échec retentissant pour le camp du « laissez-faire »
Reprenons depuis le début. Depuis l’explosion de ChatGPT fin 2022, les législateurs locaux n’ont pas attendu Washington pour agir. Plus de 400 projets de loi liés à l’IA ont été déposés dans 45 États rien qu’en 2024 et 2025. La Californie, le Colorado, l’Utah ou encore New York préparent des textes ambitieux sur la transparence algorithmique, la protection des données biométriques ou la lutte contre les deepfakes électoraux.
Pour les géants de la tech, c’est l’enfer annoncé : respecter 50 règles différentes reviendrait, selon eux, à tuer l’innovation américaine. Leur solution ? Un moratoire fédéral de dix ans qui gèlerait toute initiative locale. Traduction : pendant une décennie, aucune ville, aucun État ne pourrait imposer la moindre contrainte aux modèles d’IA.
Cette idée n’est pas nouvelle. Elle a déjà échoué une première fois au printemps 2025, quand les républicains ont tenté de la glisser dans le grand paquet fiscal voulu par Donald Trump. La résistance bipartisane avait été immédiate.
« Mettre ça dans le NDAA, c’était clairement une manœuvre pour passer en force. On ne règle pas une question aussi fondamentale pour l’avenir du pays dans un texte de 1 500 pages sur les sous-marins et les missiles. »
– Un collaborateur démocrate du Sénat, sous couvert d’anonymat
Pourquoi le NDAA était la cible parfaite (et pourquoi ça a échoué)
Le National Defense Authorization Act est ce qu’on appelle un « must-pass bill » : il finance l’armée américaine. Chaque année, des centaines d’amendements y sont greffés parce qu’il passe quasiment à coup sûr. C’est la technique du « cavalerie législative » : on attache son petit wagon à un train qui ne peut pas dérailler.
Mais cette fois, la manœuvre était trop visible. Des deux côtés de l’allée politique, des élus ont crié au scandale. Même Steve Scalise, numéro 2 républicain à la Chambre, a dû reconnaître publiquement que « ce n’était pas le bon véhicule ».
Résultat : le texte a été retiré avant même le vote final. Nouveau revers pour les lobbyistes tech qui avaient pourtant mis le paquet.
Silicon Valley vs. le reste du pays : les arguments qui s’affrontent
D’un côté, les géants du secteur répètent en boucle le même refrain :
- Un patchwork de 50 régulations tue la compétitivité américaine face à la Chine.
- Les startups ne pourront pas lever de fonds si elles doivent se conformer à des règles différentes dans chaque État.
- Seul le gouvernement fédéral a la légitimité et les moyens techniques pour réguler efficacement.
De l’autre côté, les défenseurs des lois locales répliquent point par point :
- Washington est paralysé depuis des années : aucun texte fédéral d’envergure n’a été voté.
- Les États sont des « laboratoires de la démocratie » : ils testent, ajustent, innovent en matière de régulation.
- La majorité des projets locaux ne touchent pas aux modèles eux-mêmes, mais aux usages : deepfakes en campagne, discrimination algorithmique à l’embauche, surveillance biométrique, etc.
- Bloquer les États pendant dix ans équivaudrait à offrir un chèque en blanc aux entreprises les plus puissantes du pays.
« Dire qu’on va attendre une loi fédérale parfaite pendant que les deepfakes inondent les élections de 2026, c’est irresponsable. Les États doivent pouvoir protéger leurs citoyens maintenant. »
– Un sénateur républicain modéré du Colorado
Trump dans la balance : vers un décret présidentiel ?
Le président élu n’a jamais caché son soutien à cette idée de moratoire. Dès 2024, il promettait de « libérer l’IA américaine des réglementations étouffantes ». Un projet de décret exécutif a circulé ces dernières semaines, prévoyant exactement cela : préempter toute loi locale.
Mais selon plusieurs sources, ce décret serait actuellement « en pause ». Raison officielle : on attend de voir si le Congrès peut trouver un véhicule législatif plus propre. Raison officieuse : même certains conseillers proches de Trump estiment qu’un tel décret serait immédiatement attaqué en justice par une coalition d’États… et qu’il pourrait être annulé dès 2027 si les démocrates reprennent le pouvoir.
Et l’Europe dans tout ça ? Le contre-exemple qui fait peur
À chaque débat américain, un nom revient : l’AI Act européen. Pour les pro-moratoire, c’est la preuve que trop de régulation tue l’innovation (l’Europe n’a toujours pas son « OpenAI »). Pour les autres, c’est exactement la preuve inverse qu’une régulation claire et unifiée attire les talents et les investissements responsables.
Résultat : les États-Unis risquent de se retrouver dans une situation paradoxale. D’un côté, la recherche fondamentale reste dominée par les universités et labs américains. De l’autre, les applications grand public les plus encadrées et donc les plus dignes de confiance pourraient migrer… vers l’Europe ou le Canada.
Ce qui nous attend en 2026
Trois scénarios se dessinent :
- Le Congrès trouve un compromis : une loi fédérale légère qui laisse quand même de la place aux États sur certains sujets (deepfakes, discrimination, enfants).
- Trump passe en force par décret : bataille juridique immédiate, probablement jusqu’à la Cour suprême.
- Statu quo : les États continuent d’avancer, la fragmentation s’installe, et les entreprises finissent par se plier aux règles les plus strictes (effet « California » classique).
Le scénario 3 est, pour l’instant, le plus probable.
En attendant, une chose est sûre : la bataille pour le contrôle de l’intelligence artificielle ne fait que commencer. Et elle se joue autant à Sacramento, Denver ou Albany qu’à Washington. Peut-être même davantage.
Car quand le train fédéral reste à quai, les États, eux, ont déjà pris la route.