Amazon Lance les AI Factories On-Premise avec Nvidia
Et si votre prochaine superintelligence artificielle ne tournait plus dans un cloud lointain, mais juste à côté de votre bureau, dans votre propre datacenter ? C’est exactement ce qu’Amazon vient de rendre possible avec un annonce tonitruante faite lors du re:Invent 2025.
Amazon pose ses « AI Factories » chez vous
Le géant de Seattle a dévoilé mardi 2 décembre 2025 un nouveau produit baptisé AI Factories. Le principe est simple sur le papier, révolutionnaire dans les faits : l’entreprise ou l’État fournit l’électricité et le bâtiment, AWS apporte tout le reste – serveurs ultra-puissants, réseau, stockage, sécurité – et surtout, l’intelligence artificielle reste à 100 % sur site.
Aucun octet ne traverse Internet vers un cloud public. Aucun modèle ne risque d’être exposé à un concurrent ou à une puissance étrangère. La donnée reste chez vous, point final.
Un nom qui ne doit rien au hasard
Le terme « AI Factory » n’a pas été choisi au hasard. C’est exactement l’expression qu’utilise Nvidia depuis deux ans pour désigner ses systèmes complets d’infrastructure IA : puces GPUs, réseau InfiniBand ou Spectrum-X, logiciels CUDA et toute la pile nécessaire pour entraîner et exécuter les grands modèles.
Et devinez quoi ? Cette AI Factory Amazon est bel et bien construite en partenariat étroit avec Nvidia. Les clients auront le choix entre les toutes nouvelles puces Blackwell (les fameuses GB200) ou B200) ou les nouveaux accélérateurs maison d’Amazon, les Trainium3 annoncés en parallèle.
« Nos clients nous disent : nous voulons la puissance du cloud AWS, mais sans jamais faire sortir nos données les plus sensibles. »
– Dave Brown, VP EC2 & AI chez AWS (reformulé d’après la keynote)
Pourquoi maintenant ? La souveraineté devient non négociable
Depuis l’explosion de l’IA générative, les grandes entreprises et surtout les gouvernements se retrouvent face à un dilemme cornélien. Ils veulent les capacités folles des modèles type Claude, Llama ou Gemini, mais refusent catégoriquement d’envoyer leurs données stratégiques dans des datacenters situés à l’autre bout du monde.
La France, l’Allemagne, le Japon, l’Arabie Saoudite, le Brésil… tous exigent aujourd’hui des solutions « sovereign cloud » ou « air-gapped ». Jusqu’ici, les réponses étaient partielles : régions cloud locales, contrats spécifiques, chiffrement renforcé. Mais jamais une véritable usine à IA 100 % on-premise gérée par un géant du cloud.
Amazon vient de combler ce vide.
Que contient exactement une AI Factory AWS ?
Voici, en clair, ce qu’AWS installe chez vous :
- Des racks complets de serveurs Nvidia DGX ou Amazon P6 (avec Trainium3)
- Réseau Nitro ultra-rapide et stockage EBS/EFS adapté à l’IA
- Accès direct à Amazon Bedrock (catalogue de modèles) et SageMaker
- Gestion complète par AWS : mises à jour, monitoring, scaling
- Connexion hybride optionnelle vers le reste du cloud AWS (quand vous le décidez)
En résumé : vous avez l’expérience cloud, mais dans votre bunker.
Microsoft avait ouvert la voie… sans le dire
Il faut être honnête : Amazon n’est pas le premier à parler d’AI Factory. En octobre 2025, Microsoft a dévoilé ses propres infrastructures massives construites avec Nvidia pour entraîner les futurs GPT-5 d’OpenAI. Satya Nadella les avait même qualifiées d’« AI Superfactories ».
Mais Microsoft restait discret sur la partie on-premise. On savait qu’Azure Local existait (des mini-Azure dans des conteneurs), mais rien d’aussi ambitieux qu’une usine complète à plusieurs centaines de millions de dollars posée chez un client.
Amazon passe donc à l’offensive directe et transforme l’essai.
Le grand retour du cloud… privé ?
Il y a quinze ans, le cloud public était vendu comme la mort du datacenter privé. « Pourquoi gérer des serveurs quand on peut tout déléguer ? »
L’IA vient de renverser la table. Les volumes de calcul nécessaires sont tellement énormes, les enjeux de confidentialité tellement critiques, que les plus grosses organisations veulent à nouveau leurs propres usines. Mais elles ne veulent plus les gérer elles-mêmes.
Résultat : le cloud hybride managé devient la nouvelle norme pour l’IA de pointe. C’est un retour vers 2009… mais avec des puces 1000 fois plus puissantes et des logiciels infinement plus matures.
Quels clients vont craquer en premier ?
Les suspects habituels sont déjà dans le viseur :
- Les ministères de la Défense (France, USA, Israël…)
- Les grandes banques européennes (RGPD + données financières ultra-sensibles)
- Les géants de l’énergie (TotalEnergies, Aramco) pour l’optimisation des réseaux
- Les laboratoires pharmaceutiques (propriété intellectuelle des molécules)
- Les constructeurs automobiles allemands et japonais
Tous ont les moyens de payer l’électricité faramineuse de ces monstres (plusieurs mégawatts par rack) et tous ont des données qu’ils refusent de voir transiter ailleurs.
Et Google dans tout ça ?
Google Cloud propose déjà des solutions « Distributed Cloud » (GCP dans votre datacenter) et des TPU v5p on-premise, mais l’offre reste moins intégrée et surtout moins médiatisée. Amazon vient de prendre une longueur d’avance en terme de clarté marketing et de partenariat visible avec Nvidia.
Conclusion : l’IA rebat toutes les cartes du cloud
On pensait le cloud public invincible. L’intelligence artificielle vient de lui rappeler qu’il y a des limites que même la technologie la plus avancée ne peut ignorer : la confiance et la souveraineté.
En lançant ses AI Factories on-premise, Amazon ne fait pas que répondre à une demande. Il redéfinit l’avenir même de l’infrastructure numérique : un monde où le meilleur des deux mondes – puissance du cloud public et contrôle absolu du privé – devient enfin possible.
La guerre du cloud souverain ne fait que commencer. Et elle s’annonce passionnante.