Nvidia Bâtit un Géant Silencieux en Réseaux
Imaginez une entreprise dont tout le monde parle uniquement pour ses puces graphiques révolutionnaires, mais qui, dans l’ombre, construit un empire presque aussi colossal dans un domaine que peu de gens associent spontanément à son nom. C’est exactement ce que vit Nvidia aujourd’hui. Derrière l’éclat des GPU qui entraînent ChatGPT et les modèles les plus puissants du monde se cache une division qui explose littéralement : les réseaux pour centres de données IA.
En quelques années seulement, cette activité est passée d’une acquisition stratégique à un moteur de croissance monstrueux qui génère des dizaines de milliards de dollars. Et le plus impressionnant ? La plupart des investisseurs et des médias n’en parlent presque jamais.
Quand les réseaux deviennent le nerf de la guerre de l’IA
Depuis plusieurs trimestres, les résultats financiers de Nvidia font rêver Wall Street. Mais si les projecteurs restent braqués sur la division « Compute & Networking » dominée par les GPU, une partie méconnue de ce segment réalise des performances hallucinantes : la branche purement réseaux.
Au dernier trimestre connu, cette division a généré 11 milliards de dollars de chiffre d’affaires. Oui, vous avez bien lu. En trois mois. Cela représente une croissance annuelle de 267 %. Sur l’ensemble de l’année fiscale, le montant dépasse les 31 milliards. À titre de comparaison, c’est plus que ce que réalise Cisco, le géant historique du networking, sur une année entière.
« Ce segment rapporte 11 milliards en un trimestre, soit davantage que l’activité réseaux de Cisco sur une année complète selon les estimations. »
– Kevin Cook, stratège senior chez Zacks Investment Research
Comment une société connue pour ses cartes graphiques gaming puis ses accélérateurs IA s’est-elle retrouvée à concurrencer frontalement les leaders mondiaux du réseau d’entreprise ? Tout commence en 2020.
L’acquisition visionnaire de Mellanox
En mars 2020, Nvidia annonce le rachat de Mellanox, une société israélienne spécialisée dans les technologies d’interconnexion à très haute performance, pour 7 milliards de dollars. À l’époque, beaucoup s’interrogent sur la pertinence stratégique de ce mouvement. Jensen Huang, le charismatique PDG, avait pourtant une vision très claire.
Il l’expliqua dès le premier jour : le data center est en train de devenir l’unité de calcul fondamentale de l’informatique moderne. Et pour qu’un data center soit vraiment performant, surtout avec des milliers de GPU travaillant de concert sur des modèles d’IA massifs, il faut une infrastructure réseau exceptionnelle.
Les puces seules ne suffisent plus. Il faut les interconnecter à une vitesse folle, avec une latence infime et une fiabilité absolue. Mellanox apportait justement cela : InfiniBand, NVLink, des switches spécialisés… tous les ingrédients nécessaires pour créer ce que Nvidia appelle désormais une AI factory.
Une offre full-stack unique sur le marché
Ce qui différencie Nvidia de la concurrence, c’est cette capacité à proposer une pile complète et parfaitement intégrée. Là où d’autres vendent des switches, des câbles ou des cartes réseau séparément, Nvidia vend l’ensemble comme un système cohérent optimisé pour ses propres GPU.
Kevin Deierling, vice-président senior networking chez Nvidia (arrivé via Mellanox), résume parfaitement cette stratégie :
« Nous construisons la pile complète de calcul, totalement intégrée, puis nous la commercialisons via nos partenaires. Je ne vois pas d’autre entreprise qui possède cette capacité full-stack. »
– Kevin Deierling, SVP Networking, Nvidia
Cette approche « tout-en-un » rassure énormément les hyperscalers et les grands fournisseurs de cloud qui construisent des clusters de dizaines de milliers de GPU. Ils savent qu’en choisissant Nvidia, ils obtiennent non seulement les meilleurs accélérateurs, mais aussi le réseau qui les exploite à 100 % de leur potentiel.
Les technologies phares qui font la différence
Plusieurs briques technologiques portent cette croissance explosive :
- NVLink : interconnexion ultra-rapide entre GPU au sein d’un même nœud ou d’un rack
- InfiniBand : la référence historique pour les réseaux à très faible latence dans le HPC et l’IA
- Spectrum-X : la nouvelle plateforme Ethernet optimisée spécifiquement pour les charges IA
- Switches à optique co-packagée : réduction drastique de la consommation et augmentation de la bande passante
Ces technologies ne sont pas simplement « meilleures » que celles des concurrents. Elles sont conçues dès le départ pour fonctionner en symbiose parfaite avec l’écosystème CUDA et les architectures GPU de Nvidia. Cette intégration verticale crée un avantage compétitif très difficile à reproduire.
Nvidia GTC 2026 : l’accélération continue
Lors de la keynote de mars 2026 à la conférence GTC, Jensen Huang a une nouvelle fois montré que le networking reste au cœur de la stratégie. Parmi les annonces majeures :
- La plateforme Rubin avec six nouvelles puces pour construire des superordinateurs IA
- Une nouvelle solution de stockage mémoire contextuelle pour l’inférence
- Des switches Spectrum-X Ethernet Photonics encore plus performants et économes
Chaque nouvelle génération de GPU s’accompagne désormais systématiquement d’avancées networking correspondantes. Le message est clair : chez Nvidia, le réseau n’est plus un accessoire. C’est une composante fondamentale de l’ordinateur du futur.
Pourquoi si peu de bruit autour de ce succès ?
Plusieurs raisons expliquent ce paradoxe. D’abord, le storytelling de Nvidia reste centré sur l’IA et les GPU, sujets beaucoup plus « sexy » pour le grand public et les médias. Ensuite, le grand public associe encore le mot « réseau » à des routeurs Wi-Fi domestiques ou à des imprimantes partagées, pas à des fabrics de plusieurs milliards de dollars.
Enfin, la société communique relativement peu sur les détails de cette division. Comme le reconnaît avec humour Kevin Deierling : « Peut-être que c’est ma faute, je fais mal mon travail de marketing ! »
Mais au fond, Nvidia n’a peut-être pas besoin de faire beaucoup de bruit. Les chiffres parlent d’eux-mêmes, les clients signent des chèques records, et les concurrents peinent à suivre le rythme.
Quel avenir pour cette division ?
Tout porte à croire que la trajectoire va continuer sur sa lancée exponentielle. Chaque nouveau modèle d’IA plus gros nécessite plus de GPU… et donc plus de bande passante, plus de faible latence, plus d’efficacité énergétique dans les interconnexions.
Les experts estiment que d’ici 2030, le marché des réseaux pour IA pourrait devenir aussi important, voire plus, que celui des accélérateurs eux-mêmes dans certains scénarios. Si tel est le cas, la division discrète de 2020 pourrait devenir l’une des plus grosses contributrices aux revenus de Nvidia.
En attendant, une chose est sûre : la prochaine fois que vous entendrez parler d’une levée de fonds record pour un cluster IA ou d’un nouveau superordinateur annoncé par un hyperscaler, pensez à regarder non seulement les GPU… mais aussi les câbles, les switches et toute l’infrastructure invisible qui les relie. C’est là que se joue une partie essentielle de la révolution IA actuelle.
Et Nvidia l’a parfaitement compris depuis 2020.