Pentagone vs Anthropic : Les Startups Fuiront-elles la Défense ?
Imaginez une négociation qui tourne au fiasco en quelques jours seulement, une entreprise d’intelligence artificielle classée comme risque pour la chaîne d’approvisionnement américaine, et son principal concurrent qui signe dans la foulée un contrat avec le ministère de la Défense. Nous sommes en mars 2026 et ce scénario n’est pas une fiction : il oppose Anthropic et le Pentagone, tandis qu’OpenAI se retrouve au cœur d’une tempête médiatique et citoyenne. Mais au-delà du buzz, une question bien plus sérieuse se pose : cet épisode va-t-il durablement refroidir l’appétit des startups pour les contrats militaires ?
Un bras de fer inédit entre l’IA civile et le pouvoir militaire
En l’espace d’une semaine, les relations entre le Département de la Défense américain et Anthropic ont viré au cauchemar diplomatique-tech. Ce qui avait débuté comme une collaboration prometteuse autour de Claude s’est transformé en bras de fer lorsque le Pentagone a tenté de modifier unilatéralement les termes d’un contrat déjà signé. Anthropic a refusé net. Résultat : l’entreprise s’est vue désignée « risque pour la supply chain » par l’administration Trump 2.0, une sanction lourde de conséquences symboliques et pratiques.
Anthropic n’a pas plié. La société a annoncé son intention de contester cette décision devant les tribunaux. Pendant ce temps, OpenAI a saisi l’opportunité et officialisé un partenariat avec le DoD, provoquant immédiatement une vague de réactions hostiles de la part d’une partie de ses utilisateurs.
« Ce n’est pas seulement une question de spotlight médiatique. C’est une question de savoir si notre technologie va être utilisée pour tuer des gens ou non. »
– Discussion extraite du podcast Equity de TechCrunch
Cette phrase résume parfaitement le cœur du débat. Contrairement aux fournisseurs historiques de matériel militaire (véhicules, drones classiques, logiciels de logistique), les modèles de langage comme Claude ou GPT soulèvent des interrogations éthiques immédiates et très visibles.
Pourquoi cet épisode fait-il si peur aux startups ?
Pour la très grande majorité des entreprises qui travaillent déjà avec le Pentagone, l’affaire est restée relativement discrète. General Motors fabrique depuis des décennies des véhicules militaires, y compris des versions électriques et autonomes. Applied Intuition, Anduril ou Palantir signent régulièrement des contrats conséquents sans provoquer de vague de désinstallation massive de leurs produits grand public.
Mais Anthropic et OpenAI ne sont pas des entreprises lambda. Leurs produits sont dans la poche de dizaines de millions de personnes. Ils font partie de la conversation quotidienne. Dès lors, toute décision touchant à l’usage militaire devient immédiatement un sujet brûlant sur les réseaux sociaux, les forums et les médias.
Le vrai signal d’alerte pour les startups ne réside pas tant dans le clash éthique que dans la modification rétroactive des termes contractuels. Historiquement, décrocher un contrat avec le DoD prend des années. Les clauses sont âprement négociées. Voir une administration tenter de les réécrire en cours de route constitue une rupture de confiance majeure.
- Les délais administratifs déjà très longs deviennent insupportables si les règles changent en permanence.
- Le risque juridique et réputationnel explose lorsqu’on travaille sur des technologies dual-use aussi visibles que l’IA générative.
- Les talents les plus sensibles aux questions éthiques risquent de fuir les entreprises qui s’engagent trop loin dans la défense.
OpenAI paie le prix fort de sa rapidité
Quelques heures après l’annonce du partenariat, les chiffres étaient éloquents : les désinstallations de l’application ChatGPT ont bondi de 295 % selon plusieurs sources. Sur l’App Store, Claude a temporairement dépassé ChatGPT dans plusieurs classements nationaux. Des employés d’OpenAI ont même quitté l’entreprise, dénonçant un processus de décision trop précipité et insuffisamment encadré sur le plan éthique.
Cette réaction n’est pas anodine. Elle montre que la communauté tech, ou du moins une partie très bruyante d’entre elle, reste attachée à l’idée que l’IA ne doit pas servir directement des missions létales. OpenAI et Anthropic affichent pourtant publiquement des positions très proches : tous deux insistent sur la nécessité de garde-fous stricts. La différence se joue surtout sur le degré de fermeté face aux demandes du Pentagone.
Les startups dual-use face à un choix stratégique
De nombreuses jeunes pousses se présentent aujourd’hui comme « dual-use » : elles développent des technologies utilisables à la fois dans le civil et dans le militaire. C’est une stratégie qui permet d’accéder à des financements publics massifs et à des clients très solvables. Mais le contexte actuel pourrait pousser certaines à revoir leur positionnement.
Voici les scénarios les plus probables pour les mois à venir :
- Stratégie discrète : continuer à travailler avec le DoD mais en limitant la communication publique sur ces contrats.
- Positionnement éthique marqué : refuser explicitement toute utilisation létale et l’afficher comme avantage concurrentiel auprès des talents et des clients grand public.
- Abandon pur et simple : certaines sociétés, surtout celles très grand public, pourraient juger que le jeu n’en vaut plus la chandelle.
Il est encore trop tôt pour trancher. Mais l’épisode Anthropic-OpenAI marque sans doute un tournant dans la perception du risque « défense » par l’écosystème startup.
Et si c’était le début d’une nouvelle ère de méfiance ?
Le Département de la Défense américain reste de très loin le plus gros acheteur de technologies avancées au monde. Ignorer ce marché revient à se priver d’une manne financière colossale et d’une source d’innovation unique. Pourtant, la séquence de mars 2026 pourrait laisser des traces durables.
Les fondateurs d’aujourd’hui sont souvent issus d’une génération sensibilisée aux questions éthiques et climatiques. Accepter de l’argent public pour développer des armes autonomes, des systèmes de surveillance de masse ou des outils d’aide à la décision militaire n’est plus un choix neutre. Il devient un choix politique, médiatique et moral.
Si d’autres scandales similaires éclatent dans les prochains mois, il est probable que l’on assiste à une forme de « self-censoring » stratégique chez les startups les plus exposées médiatiquement. Les plus audacieuses continueront sans doute, mais en silence. Les autres pourraient préférer se concentrer sur des secteurs perçus comme moins controversés : santé, éducation, climat, mobilité.
« Cela devrait donner à réfléchir à n’importe quelle startup qui envisage de travailler avec le gouvernement fédéral, surtout quand on voit à quelle vitesse les termes peuvent changer. »
– Extrait du podcast Equity, TechCrunch
En définitive, l’affaire Anthropic-Pentagone ne marque peut-être pas la fin des collaborations IA-Défense, mais elle vient de poser un sérieux avertissement : à l’ère des réseaux sociaux et de la transparence totale, aucun contrat militaire n’est plus totalement invisible. Et aucun fondateur ne peut ignorer le coût réputationnel potentiel.
Reste à savoir si ce signal d’alerte suffira à modifier en profondeur les stratégies des startups IA ou s’il ne s’agira finalement que d’un soubresaut médiatique rapidement oublié. L’avenir nous le dira, probablement plus vite qu’on ne le pense.