黄仁勋 CES définit la tonalité pour 2026 : Vera Rubin en production de masse, voitures autonomes AI disponibles au premier trimestre, les processus clés proviennent de TSMC
Lors du CES 2026, le PDG de NVIDIA (NVIDIA), Huang Renxun, lors de son discours principal « NVIDIA Live » à Las Vegas, a rarement évoqué la gamme de cartes graphiques GeForce, préférant se concentrer entièrement sur les centres de données, la conduite autonome, la robotique et les modèles ouverts.
Lors de cette intervention, Huang Renxun a annoncé la collaboration entre NVIDIA et Mercedes-Benz, avec la mise en production officielle du premier véhicule autonome AI, la Mercedes-Benz CLA, équipée du modèle automobile Alpamayo de NVIDIA, certifiée NCAP comme étant la plus sûre. La commercialisation est prévue pour le premier trimestre aux États-Unis, le deuxième trimestre en Europe, et le plus tôt possible au troisième trimestre en Asie.
L’attente autour de Vera Rubin est également à son comble, c’est le produit phare de NVIDIA après Blackwell, mais il ne s’agit pas d’un seul chip, c’est le nom de la prochaine génération de plateforme AI. Un seul Rubin Pod est composé de 16 racks, totalisant 1 152 GPU, chaque rack étant équipé de 72 Rubin, chaque Rubin étant en réalité assemblé à partir de deux puces GPU. Par rapport au CPU Grace et au GPU Blackwell, la nouvelle génération Vera CPU offre une amélioration significative en termes de performance en thread unique, de capacité mémoire et de performance globale.
Également présenté lors de cet événement, le nouveau processeur de prochaine génération pour centres de données, BlueField-4, capable de diviser un centre de données massif en plusieurs blocs indépendants pour permettre à différents utilisateurs de fonctionner simultanément. La nouvelle plateforme de commutation pour le réseau de centre de données AI, Spectrum-X Ethernet Co-Packaged Optics (CPO), repose sur une technologie clé développée conjointement par TSMC et NVIDIA, le nouveau procédé COOP (Silicon Photonics intégré).
Au niveau des modèles, Huang Renxun a souligné que l’ouverture sera la clé de l’écosystème AI. NVIDIA a déjà lancé des modèles totalement ouverts dans six grands domaines, notamment Clara (médical), Earth-2 (climat), Nemotron (raisonnement et multimodalité), Cosmos (robotique et simulation), GR00T (intelligence incarnée), ainsi que le modèle de conduite autonome Alpamayo.
NVIDIA premier véhicule autonome AI en Q1
Lors du CES 2026, Huang Renxun a d’abord mentionné Alpamayo, positionné comme le premier modèle visuel-langage-action (VLA) ouvert et doté de capacités de raisonnement au niveau mondial. Alpamayo est entraîné de bout en bout, connectant directement les capteurs aux commandes de direction, de freinage et d’accélération, avec des données d’entraînement combinant de nombreuses démonstrations de conduite humaine, des données synthétiques générées par Cosmos, et des centaines de milliers d’échantillons annotés avec précision. Contrairement aux systèmes traditionnels, Alpamayo ne se contente pas de prendre des actions, il peut également expliquer en temps réel pourquoi il a choisi cette action.
Huang Renxun a annoncé que la première voiture autonome de NVIDIA sera mise en service au premier trimestre de cette année. La commercialisation est prévue pour le premier trimestre aux États-Unis, le deuxième trimestre en Europe, et le plus tôt possible au troisième ou quatrième trimestre en Asie.
En termes d’architecture, le modèle est Alpamayo, tandis que l’application concrète est la Mercedes-Benz CLA. Ce modèle Mercedes-Benz CLA a récemment obtenu la certification et est en production de masse. Il a également été évalué par NCAP, étant classé comme la voiture la plus sûre au monde. Ce véhicule autonome dispose de deux modes : un système AI autonome doté de capacités de raisonnement, et un autre système traditionnel entièrement traçable et basé sur des règles. Le module de sécurité intégré et l’évaluation en temps réel déterminent si le contrôle doit revenir à l’IA ou revenir à un système traditionnel plus conservateur.
Huang Renxun annonce la mise en production complète de Vera Rubin, avec une analyse détaillée des spécifications
L’un des points centraux du discours est l’annonce officielle que la plateforme Rubin est désormais en production de masse. Rubin est positionné comme la génération suivante de Blackwell, et c’est la première plateforme AI à six puces conçue selon une approche de co-conception extrême par NVIDIA, intégrant calcul, réseau, stockage et pile logicielle, à partir des centres de données.
Dans l’écosystème NVIDIA, Vera Rubin n’est pas un seul chip, mais le nom de la plateforme AI de prochaine génération : le cœur est la combinaison du Vera CPU et du Rubin GPU via NVLink‑C2C pour former le superchip Vera Rubin, qui est ensuite empilé pour former le superordinateur AI Vera Rubin NVL72, destiné à exécuter des AI agentiques, des inférences à long contexte et des charges de travail d’usine AI.
Un seul Rubin Pod est composé de 16 racks, totalisant 1 152 GPU, chaque rack étant équipé de 72 Rubin, chaque Rubin étant en réalité assemblé à partir de deux puces GPU. Le Vera CPU associé est conçu pour les superordinateurs, offrant une performance deux fois supérieure en efficacité par watt par rapport aux CPU haut de gamme actuels, avec une capacité de transfert de données extrêmement élevée.
Comparé aux générations précédentes de Grace CPU et Blackwell GPU, la nouvelle Vera CPU offre une amélioration notable en performance en thread unique, capacité mémoire et performance globale, et lorsqu’elle est connectée directement au GPU Rubin, elle forme un cœur de calcul AI massif, semblable à un gigantesque cuirassé.
Le cœur de la plateforme Rubin comprend le GPU Rubin, le CPU Vera, NVLink 6, Spectrum-X Ethernet Co-Packaged Optics (CPO), ConnectX-9 SuperNIC et BlueField-4 DPU. Le GPU Rubin, en précision NVFP4, peut atteindre une performance d’inférence de 50 pétaflops par unité. Huang Renxun a déclaré que grâce à la conception intégrée de l’ensemble du rack et du réseau, l’objectif de Rubin est d’éliminer tous les goulots d’étranglement, en réduisant le coût total de possession (TCO) de chaque token AI à environ un dixième de celui du passé.
Nouveau processeur pour centres de données, BlueField-4
Sur le plan matériel, NVIDIA a également dévoilé pour la première fois les détails de déploiement réel du Vera CPU et du BlueField-4. Le Vera CPU, conçu pour des scénarios à consommation limitée, offre une efficacité deux fois supérieure à celle des CPU haut de gamme actuels, avec une amélioration significative de la performance en thread unique et de la capacité mémoire, spécifiquement pour les superordinateurs AI et les centres de données.
Huang Renxun a également présenté le nouveau processeur pour centres de données BlueField-4, capable de diviser un centre de données massif en plusieurs blocs indépendants pour permettre à différents utilisateurs de fonctionner simultanément, tout en déchargeant de nombreuses tâches telles que la virtualisation, la sécurité et la gestion du trafic réseau Nord-Sud vers le CPU, en faisant une configuration standard pour chaque nœud de calcul. Il a également annoncé que NVIDIA encouragera la standardisation de l’architecture système dans l’industrie, afin que tout l’écosystème et la chaîne d’approvisionnement utilisent les mêmes composants.
Étant donné qu’un système MGX comprend environ 80 000 composants, toute modification annuelle de ses spécifications entraînerait un gaspillage énorme. Ainsi, les principaux fabricants de systèmes tels que Foxconn, Quanta, Wistron, HP, Dell et Lenovo peuvent intégrer directement la nouvelle plateforme dans leur système de fabrication existant.
Il est important de noter que, bien que la consommation totale de Vera Rubin soit le double de celle de la génération précédente Grace Blackwell, le flux d’air d’admission est presque identique, la température de l’eau de refroidissement restant à 45°C, ce qui permet aux centres de données de ne pas même avoir besoin de refroidisseurs d’eau froide, refroidissant ainsi le superordinateur avec de l’eau chaude.
Plateforme d’échange CPO pour centres de données, la technologie clé provenant du procédé COOP de TSMC
La nouvelle plateforme d’échange Spectrum-X Ethernet Co-Packaged Optics (CPO) pour centres de données AI repose sur une technologie clé développée conjointement par TSMC et NVIDIA, le procédé COOP (Co-Optimized Optics Packaging, emballage optique co-optimisé).
Ce procédé intègre directement les composants optiques en silicium photoniques dans le noyau de l’emballage du chip d’échange, plutôt que dans un module optique externe traditionnel, permettant à une seule puce d’échange de supporter une bande passante horizontale allant jusqu’à 102,4 Tb/s, avec jusqu’à 512 ports à 200 Gb/s chacun.
Cet article, Huang Renxun CES 2026 : Vera Rubin en production de masse, AI voiture autonome Q1, technologie clé de TSMC, est initialement publié sur ABMedia.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
黄仁勋 CES définit la tonalité pour 2026 : Vera Rubin en production de masse, voitures autonomes AI disponibles au premier trimestre, les processus clés proviennent de TSMC
Lors du CES 2026, le PDG de NVIDIA (NVIDIA), Huang Renxun, lors de son discours principal « NVIDIA Live » à Las Vegas, a rarement évoqué la gamme de cartes graphiques GeForce, préférant se concentrer entièrement sur les centres de données, la conduite autonome, la robotique et les modèles ouverts.
Lors de cette intervention, Huang Renxun a annoncé la collaboration entre NVIDIA et Mercedes-Benz, avec la mise en production officielle du premier véhicule autonome AI, la Mercedes-Benz CLA, équipée du modèle automobile Alpamayo de NVIDIA, certifiée NCAP comme étant la plus sûre. La commercialisation est prévue pour le premier trimestre aux États-Unis, le deuxième trimestre en Europe, et le plus tôt possible au troisième trimestre en Asie.
L’attente autour de Vera Rubin est également à son comble, c’est le produit phare de NVIDIA après Blackwell, mais il ne s’agit pas d’un seul chip, c’est le nom de la prochaine génération de plateforme AI. Un seul Rubin Pod est composé de 16 racks, totalisant 1 152 GPU, chaque rack étant équipé de 72 Rubin, chaque Rubin étant en réalité assemblé à partir de deux puces GPU. Par rapport au CPU Grace et au GPU Blackwell, la nouvelle génération Vera CPU offre une amélioration significative en termes de performance en thread unique, de capacité mémoire et de performance globale.
Également présenté lors de cet événement, le nouveau processeur de prochaine génération pour centres de données, BlueField-4, capable de diviser un centre de données massif en plusieurs blocs indépendants pour permettre à différents utilisateurs de fonctionner simultanément. La nouvelle plateforme de commutation pour le réseau de centre de données AI, Spectrum-X Ethernet Co-Packaged Optics (CPO), repose sur une technologie clé développée conjointement par TSMC et NVIDIA, le nouveau procédé COOP (Silicon Photonics intégré).
Au niveau des modèles, Huang Renxun a souligné que l’ouverture sera la clé de l’écosystème AI. NVIDIA a déjà lancé des modèles totalement ouverts dans six grands domaines, notamment Clara (médical), Earth-2 (climat), Nemotron (raisonnement et multimodalité), Cosmos (robotique et simulation), GR00T (intelligence incarnée), ainsi que le modèle de conduite autonome Alpamayo.
NVIDIA premier véhicule autonome AI en Q1
Lors du CES 2026, Huang Renxun a d’abord mentionné Alpamayo, positionné comme le premier modèle visuel-langage-action (VLA) ouvert et doté de capacités de raisonnement au niveau mondial. Alpamayo est entraîné de bout en bout, connectant directement les capteurs aux commandes de direction, de freinage et d’accélération, avec des données d’entraînement combinant de nombreuses démonstrations de conduite humaine, des données synthétiques générées par Cosmos, et des centaines de milliers d’échantillons annotés avec précision. Contrairement aux systèmes traditionnels, Alpamayo ne se contente pas de prendre des actions, il peut également expliquer en temps réel pourquoi il a choisi cette action.
Huang Renxun a annoncé que la première voiture autonome de NVIDIA sera mise en service au premier trimestre de cette année. La commercialisation est prévue pour le premier trimestre aux États-Unis, le deuxième trimestre en Europe, et le plus tôt possible au troisième ou quatrième trimestre en Asie.
En termes d’architecture, le modèle est Alpamayo, tandis que l’application concrète est la Mercedes-Benz CLA. Ce modèle Mercedes-Benz CLA a récemment obtenu la certification et est en production de masse. Il a également été évalué par NCAP, étant classé comme la voiture la plus sûre au monde. Ce véhicule autonome dispose de deux modes : un système AI autonome doté de capacités de raisonnement, et un autre système traditionnel entièrement traçable et basé sur des règles. Le module de sécurité intégré et l’évaluation en temps réel déterminent si le contrôle doit revenir à l’IA ou revenir à un système traditionnel plus conservateur.
Huang Renxun annonce la mise en production complète de Vera Rubin, avec une analyse détaillée des spécifications
L’un des points centraux du discours est l’annonce officielle que la plateforme Rubin est désormais en production de masse. Rubin est positionné comme la génération suivante de Blackwell, et c’est la première plateforme AI à six puces conçue selon une approche de co-conception extrême par NVIDIA, intégrant calcul, réseau, stockage et pile logicielle, à partir des centres de données.
Dans l’écosystème NVIDIA, Vera Rubin n’est pas un seul chip, mais le nom de la plateforme AI de prochaine génération : le cœur est la combinaison du Vera CPU et du Rubin GPU via NVLink‑C2C pour former le superchip Vera Rubin, qui est ensuite empilé pour former le superordinateur AI Vera Rubin NVL72, destiné à exécuter des AI agentiques, des inférences à long contexte et des charges de travail d’usine AI.
Un seul Rubin Pod est composé de 16 racks, totalisant 1 152 GPU, chaque rack étant équipé de 72 Rubin, chaque Rubin étant en réalité assemblé à partir de deux puces GPU. Le Vera CPU associé est conçu pour les superordinateurs, offrant une performance deux fois supérieure en efficacité par watt par rapport aux CPU haut de gamme actuels, avec une capacité de transfert de données extrêmement élevée.
Comparé aux générations précédentes de Grace CPU et Blackwell GPU, la nouvelle Vera CPU offre une amélioration notable en performance en thread unique, capacité mémoire et performance globale, et lorsqu’elle est connectée directement au GPU Rubin, elle forme un cœur de calcul AI massif, semblable à un gigantesque cuirassé.
Le cœur de la plateforme Rubin comprend le GPU Rubin, le CPU Vera, NVLink 6, Spectrum-X Ethernet Co-Packaged Optics (CPO), ConnectX-9 SuperNIC et BlueField-4 DPU. Le GPU Rubin, en précision NVFP4, peut atteindre une performance d’inférence de 50 pétaflops par unité. Huang Renxun a déclaré que grâce à la conception intégrée de l’ensemble du rack et du réseau, l’objectif de Rubin est d’éliminer tous les goulots d’étranglement, en réduisant le coût total de possession (TCO) de chaque token AI à environ un dixième de celui du passé.
Nouveau processeur pour centres de données, BlueField-4
Sur le plan matériel, NVIDIA a également dévoilé pour la première fois les détails de déploiement réel du Vera CPU et du BlueField-4. Le Vera CPU, conçu pour des scénarios à consommation limitée, offre une efficacité deux fois supérieure à celle des CPU haut de gamme actuels, avec une amélioration significative de la performance en thread unique et de la capacité mémoire, spécifiquement pour les superordinateurs AI et les centres de données.
Huang Renxun a également présenté le nouveau processeur pour centres de données BlueField-4, capable de diviser un centre de données massif en plusieurs blocs indépendants pour permettre à différents utilisateurs de fonctionner simultanément, tout en déchargeant de nombreuses tâches telles que la virtualisation, la sécurité et la gestion du trafic réseau Nord-Sud vers le CPU, en faisant une configuration standard pour chaque nœud de calcul. Il a également annoncé que NVIDIA encouragera la standardisation de l’architecture système dans l’industrie, afin que tout l’écosystème et la chaîne d’approvisionnement utilisent les mêmes composants.
Étant donné qu’un système MGX comprend environ 80 000 composants, toute modification annuelle de ses spécifications entraînerait un gaspillage énorme. Ainsi, les principaux fabricants de systèmes tels que Foxconn, Quanta, Wistron, HP, Dell et Lenovo peuvent intégrer directement la nouvelle plateforme dans leur système de fabrication existant.
Il est important de noter que, bien que la consommation totale de Vera Rubin soit le double de celle de la génération précédente Grace Blackwell, le flux d’air d’admission est presque identique, la température de l’eau de refroidissement restant à 45°C, ce qui permet aux centres de données de ne pas même avoir besoin de refroidisseurs d’eau froide, refroidissant ainsi le superordinateur avec de l’eau chaude.
Plateforme d’échange CPO pour centres de données, la technologie clé provenant du procédé COOP de TSMC
La nouvelle plateforme d’échange Spectrum-X Ethernet Co-Packaged Optics (CPO) pour centres de données AI repose sur une technologie clé développée conjointement par TSMC et NVIDIA, le procédé COOP (Co-Optimized Optics Packaging, emballage optique co-optimisé).
Ce procédé intègre directement les composants optiques en silicium photoniques dans le noyau de l’emballage du chip d’échange, plutôt que dans un module optique externe traditionnel, permettant à une seule puce d’échange de supporter une bande passante horizontale allant jusqu’à 102,4 Tb/s, avec jusqu’à 512 ports à 200 Gb/s chacun.
Cet article, Huang Renxun CES 2026 : Vera Rubin en production de masse, AI voiture autonome Q1, technologie clé de TSMC, est initialement publié sur ABMedia.