Anthropic Piégée par ses Principes de Sécurité IA
Imaginez une entreprise qui a bâti toute sa réputation sur la prudence et la responsabilité face à l’une des technologies les plus puissantes jamais créées… et qui se retrouve soudainement considérée comme une menace par son propre gouvernement. C’est exactement ce qui arrive aujourd’hui à Anthropic, l’une des startups les plus prometteuses de l’intelligence artificielle.
En refusant de mettre ses modèles au service de la surveillance de masse des citoyens américains ou de drones armés capables de tuer sans intervention humaine, la société a provoqué la colère de l’administration Trump. Résultat : un contrat fédéral de plusieurs centaines de millions de dollars annulé, une interdiction de travailler avec le Pentagone et une mise au ban qui pourrait s’étendre à d’autres agences. Le symbole est fort… et les leçons qu’il porte le sont tout autant.
Quand l’éthique devient un handicap stratégique
Anthropic n’est pas n’importe quelle société d’IA. Fondée par d’anciens cadres d’OpenAI, elle s’est toujours présentée comme l’alternative « sûre » et « responsable » face à une course à la puissance qui semblait ignorer les garde-fous. Son slogan officieux ? Développer l’IA la plus puissante… mais seulement si l’on sait la maîtriser.
Pendant longtemps, cette posture a séduit investisseurs, talents et médias. Elle contrastait avec la communication plus offensive d’OpenAI ou l’approche discrète mais pragmatique de Google DeepMind. Mais en 2026, ce positionnement éthique se retourne contre ses auteurs de la manière la plus brutale qui soit.
Le refus qui a tout changé
Le 28 février 2026, alors qu’une interview avec une journaliste de TechCrunch démarrait, une alerte a traversé les écrans : Donald Trump publiait sur Truth Social une directive claire et sans appel. Toutes les agences fédérales devaient cesser immédiatement toute utilisation des technologies d’Anthropic. Quelques heures plus tard, le secrétaire à la Défense Pete Hegseth invoquait une loi sur la sécurité nationale pour placer l’entreprise sur liste noire.
Les motifs invoqués sont limpides : Dario Amodei, PDG et cofondateur, a refusé que Claude (le modèle phare d’Anthropic) serve à deux usages précis :
- la surveillance de masse des citoyens américains ;
- le déploiement de drones armés autonomes capables de sélectionner et d’éliminer des cibles sans aucune supervision humaine.
Ce refus, qui aurait pu être perçu comme un acte de courage moral il y a quelques années, est aujourd’hui interprété comme un manque de patriotisme ou une entrave à la suprématie technologique américaine face à la Chine.
Le chemin vers l’enfer est pavé de bonnes intentions.
– Max Tegmark, MIT & Future of Life Institute
Une industrie qui a saboté sa propre protection
Max Tegmark, physicien et militant de longue date pour une gouvernance de l’IA, ne mâche pas ses mots. Pour lui, Anthropic, OpenAI, Google et xAI partagent tous la même responsabilité : ils ont passé des années à promettre l’auto-régulation tout en s’opposant farouchement à toute régulation contraignante.
Le résultat est paradoxal mais logique : en l’absence de lois claires définissant ce qui est autorisé ou interdit, l’État peut exiger n’importe quoi… et sanctionner ceux qui refusent.
Comme le résume Tegmark avec une pointe d’ironie :
Aux États-Unis, il y a plus de régulation sur les sandwiches que sur les systèmes d’IA superintelligents.
– Max Tegmark
Si les entreprises avaient transformé leurs engagements volontaires en lois fédérales obligeant tous leurs concurrents (y compris les moins scrupuleux), elles auraient aujourd’hui un cadre juridique protecteur. Elles ont préféré jouer la carte de la liberté totale… et en payent aujourd’hui le prix.
La fameuse excuse de la course avec la Chine
À chaque fois qu’une régulation est proposée, le même argument revient : « Si nous ralentissons, Pékin prendra l’avantage ». Pourtant, Tegmark démonte ce narratif avec plusieurs contre-exemples concrets.
La Chine vient justement d’annoncer l’interdiction pure et simple des « AI girlfriends » sur son territoire. Non pas pour faire plaisir aux États-Unis, mais parce que Pékin considère que ces technologies fragilisent la jeunesse et donc la puissance nationale. Ironiquement, la République Populaire semble plus inquiète des dérives sociétales que Washington.
Quant à la superintelligence incontrôlable, personne ne pense sérieusement que Xi Jinping acceptera qu’une entreprise privée chinoise mette au point une entité capable de renverser le Parti communiste. La logique est la même aux États-Unis : un pouvoir incontrôlable est une menace existentielle, pas un atout stratégique.
Et maintenant ? Les prochaines semaines seront décisives
Anthropic a annoncé qu’elle contesterait la décision en justice. Mais l’entreprise n’est pas seule dans cette tempête.
Sam Altman (OpenAI) a rapidement déclaré qu’il partageait les mêmes lignes rouges qu’Amodei. Google, pour l’instant, reste silencieux — un silence qui commence à peser lourd auprès de ses propres équipes. xAI n’a pas encore pris position publiquement.
Nous assistons peut-être à un tournant : soit les leaders de l’industrie se regroupent derrière un socle éthique minimal et exigent enfin une régulation claire, soit la course au plus offrant continue… jusqu’à ce que le prochain scandale ou la prochaine crise force la main du législateur.
Vers une gouvernance digne de la puissance de l’IA ?
Malgré le ton sombre de la situation, Max Tegmark reste étonnamment optimiste. Il existe selon lui une issue positive : traiter les systèmes d’IA les plus puissants comme on traite les médicaments ou les avions de ligne.
Avant toute mise sur le marché d’un modèle approchant l’AGI ou la superintelligence, exiger :
- des essais contrôlés indépendants
- la démonstration de mécanismes de contrôle fiables
- une évaluation des risques systémiques par des experts tiers
Si cette voie est empruntée, nous pourrions entrer dans une ère où l’IA apporte ses immenses bénéfices sans faire peser sur l’humanité une menace existentielle permanente.
Mais pour l’instant, la réalité est plus brutale : la startup qui a le plus misé sur la sécurité morale se retrouve la première sanctionnée pour avoir tenu parole. Une ironie cruelle qui pourrait pourtant, à terme, servir de catalyseur à un vrai débat sur la gouvernance de l’intelligence artificielle.
À suivre de très près dans les prochains mois.