Amazon Lance Trainium3 et Défie Nvidia
Imaginez une salle serveur où des milliers de puces travaillent à former les cerveaux artificiels les plus puissants du monde, mais où la facture d’électricité ne fait plus trembler les directeurs financiers. C’est exactement ce qu’Amazon Web Services vient de rendre possible avec le lancement officiel de Trainium3 lors de la grand-messe re:Invent 2025. Et le géant du cloud ne s’est pas contenté d’une simple mise à jour technique : il a ouvert la porte à une petite révolution.
Trainium3 : la troisième génération qui change la donne
Depuis plusieurs années, AWS développe en interne ses propres processeurs dédiés à l’intelligence artificielle. L’objectif est clair : réduire la dépendance à Nvidia et proposer aux clients des solutions plus compétitives. Avec Trainium3, gravé en 3 nm, Amazon franchit un cap spectaculaire.
Les chiffres annoncés donnent le vertige :
- 4 fois plus rapide que Trainium2 pour l’entraînement et l’inférence
- 4 fois plus de mémoire par puce
- Jusqu’à 144 puces par UltraServer
- Possibilité de connecter des milliers de serveurs pour atteindre 1 million de puces Trainium3
- 40 % d’efficacité énergétique en plus
Ce dernier point n’est pas un détail marketing. Dans un monde où les data centers IA engloutissent des gigawatts entiers – l’équivalent de petites centrales nucléaires – économiser 40 % d’énergie représente des milliards de dollars d’économies cumulées pour les clients.
« Nos clients nous disent que l’énergie est devenue le premier poste de coût devant le matériel lui-même. Trainium3 répond directement à ce problème. »
– Un ingénieur AWS, re:Invent 2025
Des clients déjà convaincus
Plusieurs poids lourds de l’IA testent déjà la bête. Anthropic (dans lequel Amazon a investi plusieurs milliards), la startup japonaise Karakuri, SplashMusic ou encore Decart rapportent des baisses spectaculaires de leurs coûts d’inférence. Certains parlent de réductions de 50 à 70 % par rapport aux instances Nvidia équivalentes.
Et quand on sait qu’Anthropic entraîne Claude, l’un des modèles les plus puissants du moment, sur l’infrastructure AWS… on mesure l’ampleur du virage.
Trainium4 : le coup de grâce (ou de génie ?)
Mais le véritable choc de la keynote n’était pas Trainium3. C’était l’annonce discrète, presque murmurée, de Trainium4. Et là, Amazon a joué très fin.
La prochaine génération supportera nativement NVLink Fusion, le protocole haute vitesse de Nvidia qui permet aux GPU de communiquer à la vitesse de l’éclair. Traduction : il sera possible de mélanger puces Trainium4 et GPU Nvidia dans le même cluster, tout en gardant l’infrastructure serveur maison d’Amazon, moins chère.
C’est une bombe stratégique. Jusqu’ici, les grandes applications IA étaient presque toutes codées en CUDA, le langage propriétaire de Nvidia. En ouvrant la porte à l’hybridation, AWS rend son cloud compatible avec l’existant tout en proposant une alternative économique irrésistible.
« On ne veut plus forcer les clients à choisir entre performance et coût. Trainium4 leur donnera les deux. »
– Andy Jassy, CEO d’Amazon (paraphrase rapportée)
Pourquoi cette annonce fait trembler Nvidia
Nvidia domine outrageusement le marché des puces IA avec plus de 80 % de parts. Mais la pénurie chronique de GPU H100/H200, combinée à des prix stratosphériques, a créé une frustration énorme chez les hyperscalers.
Google a ses TPU, Meta développe ses propres puces MTIA, Microsoft travaille avec plusieurs partenaires… et Amazon frappe peut-être le plus fort en combinant performances, économies d’énergie et maintenant compatibilité Nvidia.
Le message est limpide : vous pouvez rester sur votre code CUDA, mais vous n’êtes plus obligés de payer le prix fort.
L’angle écologique qu’on oublie trop souvent
Derrière les performances, il y a une réalité physique brutale : l’IA consomme énormément. Un seul entraînement de modèle de la taille de GPT-4 peut rejeter autant de CO₂ qu’une voiture qui fait cinq fois le tour de la Terre.
En améliorant de 40 % l’efficacité énergétique à chaque génération, Amazon ne fait pas seulement plaisir aux comptables. Il répond aussi à une pression croissante des régulateurs et des investisseurs sur l’empreinte carbone du cloud.
Et quand on sait que les data centers représentent déjà 2 à 3 % de la consommation électrique mondiale (autant que l’aviation), chaque pourcent compte.
Et la suite ?
Aucun calendrier précis n’a été donné pour Trainium4, mais le rythme des générations précédentes laisse penser qu’on en saura plus à re:Invent 2026. D’ici là, Trainium3 UltraServer est déjà disponible en preview pour certains clients privilégiés.
Une chose est sûre : la guerre des puces IA entre dans une phase décisive. Nvidia reste ultra-dominant, mais pour la première fois, un concurrent propose non seulement une alternative crédible, mais une porte de sortie élégante pour ceux qui veulent diversifier sans tout réécrire.
Le cloud ne sera plus jamais le même.
Et vous, pensez-vous que Nvidia gardera sa couronne encore longtemps ? Ou assiste-t-on en direct à la fin d’un monopole qui aura duré moins de cinq ans ?