Régulation IA : Guerre Fédérale contre États-Unis
Imaginez que demain, votre État décide d’interdire les deepfakes électoraux ou d’obliger les entreprises d’IA à publier leurs tests de sécurité. Et puis, d’un trait de plume présidentiel, tout cela disparaisse. C’est exactement ce qui se joue en ce moment aux États-Unis, et la bataille est plus rude qu’on ne l’imagine.
L’Amérique face à un dilemme historique sur l’IA
Jamais, depuis l’apparition d’Internet, un sujet technologique n’avait provoqué un tel choc entre pouvoir fédéral et États. D’un côté, la Silicon Valley et une partie de l’administration Trump poussent pour un cadre national unique – ou même aucun cadre du tout. De l’autre, des dizaines d’États adoptent déjà leurs propres lois pour protéger leurs habitants contre les dérives de l’intelligence artificielle.
Le cœuriste est simple : qui doit avoir le dernier mot sur une technologie capable de fabriquer des vidéos truquées, de discriminer à l’embauche ou même, un jour, de provoquer des accidents graves ?
Les États passent à l’offensive
En 2025, l’absence de loi fédérale claire a créé un vide. Et la nature a horreur du vide.
Plus de 38 États ont déjà voté plus de 100 textes spécifiques à l’IA cette année. La Californie prépare un texte exigeant des grandes entreprises qu’elles évaluent les risques catastrophiques de leurs modèles. Le Texas interdit l’usage intentionnellement malveillant des systèmes d’IA. New York veut imposer des plans de sécurité aux laboratoires les plus puissants.
Ces lois ne sont pas parfaites – une étude récente montre que 69 % d’entre elles n’imposent aucune obligation directe aux développeurs – mais elles existent. Elles répondent à des craintes concrètes : deepfakes pendant les campagnes, discriminations algorithmiques, perte d’emplois massive.
Le camp du « tout fédéral ou rien »
En face, l’industrie a sorti l’artillerie lourde.
Des super PAC pro-IA comme Leading the Future – financés par Andreessen Horowitz, OpenAI, Palantir ou Perplexity – ont levé plus de 100 millions de dollars. Leur objectif ? Faire élire des candidats favorables à une régulation minimale et, surtout, bloquer toute loi locale.
« Avoir cinquante lois différentes, c’est la garantie de ralentir l’Amérique dans la course contre la Chine »
– Josh Vlasto, co-fondateur de Leading the Future
Cet argument du « patchwork ingérable » est répété en boucle. Pourtant, les mêmes entreprises se plient sans broncher aux règles bien plus strictes de l’Union européenne. Étrange, non ?
Les armes secrètes du camp fédéral
Deux projets particulièrement inquiétants ont fuité ces dernières semaines.
- Des parlementaires républicains veulent glisser dans le NDAA (le budget de la défense) une clause interdisant purement et simplement aux États de légiférer sur l’IA pendant plusieurs années.
- Un projet d’executive order de la Maison Blanche, temporairement mis en pause, prévoyait la création d’un groupe de travail chargé d’attaquer en justice toute loi d’État jugée « trop lourde ».
Pire : ce texte donnait un pouvoir considérable à David Sacks, le nouveau « tsar IA et crypto » de Trump. L’entrepreneur et investisseur, connu pour ses positions ultra-libertariennes sur la tech, aurait eu la main sur la définition d’un cadre légal national… en contournant les institutions scientifiques habituelles.
Pourquoi les États refusent de lâcher
Plus de 200 élus fédéraux et près de 40 procureurs généraux d’État ont signé des lettres ouvertes contre ces tentatives de préemption. Leur argument est ancien comme la République américaine : les États sont des « laboratoires de la démocratie ».
« L’IA qui dominera le marché sera celle qui inspire confiance. Or le marché sous-évalue souvent la sécurité à court terme »
– Alex Bores, député de New York et candidat au Congrès
L’histoire leur donne raison. C’est la Californie qui a imposé les premières règles strictes sur la protection des données (CCPA), forçant ensuite le reste du pays à suivre. C’est le Colorado qui a voté la première loi complète sur la privacy. Pourquoi l’IA ferait exception ?
Vers un compromis fédéral réaliste ?
Le député Ted Lieu (démocrate de Californie) travaille depuis des mois sur un « méga-projet » de plus de 200 pages. Il doit être présenté en décembre et couvre :
- La lutte contre la fraude et les deepfakes
- La protection des enfants
- La transparence des modèles
- L’obligation de publier les résultats des tests de sécurité
- La protection des lanceurs d’alerte
Contrairement à certaines propositions plus radicales, il n’impose pas d’évaluation gouvernementale préalable des modèles. Ted Lieu le reconnaît : il écrit une loi qui a une chance de passer sous contrôle républicain total, pas la loi idéale.
Mais même ce texte modéré risque de prendre des mois, voire des années, avant d’être voté. D’où l’urgence pour certains États de continuer à légiférer en parallèle.
Ce que cela nous dit sur l’avenir de l’IA
Cette bataille n’est pas qu’américaine. Elle préfigure ce qui va se passer partout dans le monde.
Quand une technologie évolue aussi vite, les États-nations peinent à suivre. Les villes et régions prennent alors le relais, comme on l’a vu avec Uber, Airbnb ou les trottinettes électriques. L’IA est juste… mille fois plus puissante et dangereuse.
Le risque d’une préemption totale, c’est de confier les clés de l’avenir à une poignée d’entreprises et à quelques conseillers très proches de ces entreprises. Le risque inverse, c’est un morcellement qui complique la vie des startups honnêtes.
La vérité, c’est probablement entre les deux. Un cadre fédéral minimaliste sur les grands principes (transparence, non-discrimination, sécurité des modèles frontier) couplé à la liberté pour les États d’aller plus loin sur les sujets qui touchent directement leurs citoyens.
Mais pour l’instant, la guerre fait rage. Et c’est nous tous – utilisateurs, citoyens, futurs employés ou chômeurs de l’IA – qui allons en payer le prix… ou en récolter les bénéfices.
Une chose est sûre : 2026 sera décisive. Soit l’Amérique trouve un équilibre intelligent, soit elle choisit entre l’anarchie totale et le contrôle par une poignée d’acteurs privés. Il n’y a pas de troisième voie.