Microsoft Continue Avec Nvidia et AMD Malgré Maia 200
Imaginez un instant : vous êtes à la tête de la plus grande entreprise technologique au monde, vous venez tout juste de dévoiler votre propre puce IA surpuissante après des années de développement… et vous annoncez dans la foulée que vous allez quand même continuer à acheter des milliards de dollars de composants chez vos concurrents directs. C’est exactement la position dans laquelle se trouve Satya Nadella en ce début d’année 2026.
Microsoft a franchi une étape majeure avec le déploiement des premières Maia 200, ses puces maison optimisées pour l’inférence IA. Pourtant, loin de se couper des écosystèmes existants, le géant de Redmond réaffirme haut et fort sa volonté de maintenir des relations très étroites avec Nvidia et AMD. Cette posture pragmatique intrigue et mérite qu’on s’y attarde.
La course aux puces IA : tout le monde veut son ticket
Depuis 2023, la demande en accélérateurs IA explose littéralement. Les centres de données les plus modernes consomment désormais plusieurs dizaines de mégawatts, presque exclusivement pour alimenter des milliers de GPU. Nvidia règne en maître incontesté avec sa gamme H100 puis Blackwell, mais même le leader mondial peine à suivre la cadence folle imposée par les hyperscalers.
Face à cette pénurie chronique et aux prix stratosphériques, les géants du cloud ont tous accéléré leurs programmes internes de conception de puces. Google a ses TPU depuis longtemps, Amazon déploie Trainium et Inferentia, Meta travaille sur ses MTIA… et Microsoft a donc présenté Maia (dont la version 200 arrive en production en 2026).
Mais contrairement à ce que beaucoup imaginent, développer sa propre puce ne signifie pas forcément arrêter d’acheter chez les autres. C’est précisément ce message que Satya Nadella a voulu marteler.
Les déclarations sans ambiguïté de Satya Nadella
Nous avons une excellente relation avec Nvidia, avec AMD. Ils innovent. Nous innovons. Beaucoup de gens se demandent juste qui est devant. Souvenez-vous simplement qu’il faut être devant pour toujours.
– Satya Nadella, CEO de Microsoft
Cette phrase résume parfaitement la philosophie actuelle : personne ne peut se permettre de miser sur un seul cheval dans cette course technologique où chaque génération de matériel apporte des bonds de performance de 2x à 4x.
Il ajoute ensuite une formule qui fera date :
Le fait que nous puissions verticalement intégrer ne signifie pas que nous allons uniquement verticalement intégrer.
– Satya Nadella
En clair : nous construisons nos propres puces, mais nous continuerons à acheter massivement chez les spécialistes du marché.
Maia 200 : une puce taillée pour l’inférence à grande échelle
La Maia 200 se positionne clairement comme une solution optimisée pour l’inférence, c’est-à-dire l’exécution en production des grands modèles une fois qu’ils ont été entraînés. Microsoft affirme que sa puce surpasse les dernières générations de Trainium (Amazon) et de TPU (Google) sur plusieurs métriques clés de performance par watt.
Parmi les premières utilisations concrètes :
- L’équipe Superintelligence de Mustafa Suleyman, qui travaille sur les futurs modèles frontier de Microsoft
- Une partie significative des charges d’inférence des modèles OpenAI servis via Azure
Cette double casquette (interne + client OpenAI) montre que Microsoft voit dans Maia un levier stratégique majeur pour réduire sa dépendance technologique à long terme tout en conservant une agilité immédiate.
Pourquoi ne pas tout miser sur Maia ?
Plusieurs raisons expliquent cette stratégie multi-fournisseurs :
- Diversification des risques : une faille dans la supply chain d’un seul fournisseur peut paralyser des centaines de milliers de GPU.
- Différents cas d’usage : l’entraînement des très grands modèles reste largement dominé par les architectures Nvidia CUDA. Maia est orientée inférence.
- Concurrence saine : en maintenant la pression sur Nvidia et AMD, Microsoft obtient de meilleurs prix et des innovations plus rapides.
- Écosystème logiciel : l’immense majorité des frameworks IA (PyTorch, JAX, etc.) est encore optimisée en priorité pour CUDA. Basculer entièrement prendrait des années.
Cette approche multi-puces rappelle d’ailleurs la stratégie historique de Microsoft sur Windows : soutenir plusieurs architectures processeur (x86, ARM, RISC-V aujourd’hui) plutôt que d’imposer une seule voie.
Mustafa Suleyman et l’équipe Superintelligence en pole position
Dans un message publié sur X, Mustafa Suleyman n’a pas caché sa satisfaction :
C’est un grand jour. Notre équipe Superintelligence sera la première à utiliser Maia 200 pendant que nous développons nos modèles d’IA frontier.
– Mustafa Suleyman
Cette priorité donnée à l’équipe interne montre que Microsoft veut accélérer le développement de ses propres grands modèles, histoire de ne pas rester éternellement dépendant d’OpenAI ou d’Anthropic pour ses avancées les plus stratégiques.
Un marché où personne n’est vraiment « devant pour toujours »
Comme l’a rappelé Nadella, la course ne s’arrête jamais. Chaque année apporte son lot de bonds technologiques : gravure plus fine, nouvelles architectures mémoire (HBM3E puis HBM4), innovations dans les interconnexions (NVLink, Ultra Ethernet Consortium), refroidissement liquide avancé, etc.
Dans ce contexte, la seule stratégie viable semble être l’hybridation maximale : puces maison + Nvidia + AMD + potentiellement d’autres acteurs émergents (Groq, Cerebras, SambaNova, Tenstorrent…).
Microsoft n’est d’ailleurs pas le seul à adopter cette voie. Amazon continue d’acheter énormément de GPU Nvidia malgré Trainium, Google déploie toujours des GPU dans certains clusters malgré ses TPU, Meta fait de même.
Quelles conséquences pour l’écosystème IA ?
À moyen terme, cette stratégie multi-fournisseurs devrait :
- Maintenir une forte pression concurrentielle sur Nvidia, ce qui profite à tous les acheteurs
- Accélérer l’émergence de standards ouverts pour l’interopérabilité entre puces (ROCm chez AMD, OpenAI Triton, etc.)
- Permettre aux entreprises de mieux répartir leurs charges selon le meilleur rapport performance/prix/énergie/disponibilité du moment
- Ralentir légèrement la concentration extrême du marché autour d’un seul fournisseur
Mais cela demande aussi des investissements colossaux en R&D, en logiciels d’orchestration multi-puces et en formation des équipes. Tout le monde ne pourra pas suivre.
Vers une ère de l’IA post-Nvidia dominant ?
En 2026, Nvidia reste incontestablement numéro un. Mais pour la première fois depuis une décennie, on sent que l’hégémonie pourrait s’effriter progressivement. Pas disparaître, mais s’effriter.
Les hyperscalers deviennent eux-mêmes des acteurs semi-fonderies en concevant des puces qui rivalisent désormais sur certains workloads. Les startups spécialisées (Groq, Etched, d-Matrix…) apportent des architectures radicalement différentes. AMD grignote des parts de marché significatives.
Dans ce paysage mouvant, la déclaration de Nadella prend tout son sens : plutôt que de parier sur un futur vainqueur unique, Microsoft choisit d’être ami avec tout le monde… tout en construisant discrètement son propre avenir.
Une chose est sûre : les prochaines années seront passionnantes à suivre pour quiconque s’intéresse à l’infrastructure qui fait tourner l’intelligence artificielle mondiale.
Et vous, pensez-vous que les géants du cloud finiront par réduire fortement leur dépendance à Nvidia d’ici 2030 ? Ou est-ce que l’écosystème CUDA restera trop puissant pour être vraiment concurrencé ?