黄仁勋 CES annonce en grande pompe : le moment de ChatGPT pour l'IA physique approche à grands pas

MarketWhisper

黃仁勳預告物理AI

Huang Ren-Hui a annoncé lors du CES que « le moment ChatGPT de l’IA physique arrive bientôt ». Nvidia a lancé la plateforme Vera Rubin avec une puissance de calcul multipliée par 5, et a ouvert en accès libre Alpamayo pour la conduite autonome, Cosmos pour le modèle du monde et Groot pour la robotique. L’accent est mis sur deux migrations de plateformes qui se produisent simultanément : l’IA refait les applications, l’IA physique refait la réalité.

Trois grandes avancées de la révolution matérielle de Vera Rubin

Huang Ren-Hui a déclaré au début de son discours au CES : « Nous avons 15 kilos de contenu à faire entrer dans ce discours d’aujourd’hui, avec 3 000 personnes assises dans la salle, 2 000 autres dans la cour extérieure, d’autres au quatrième étage en ligne, et des millions de personnes dans le monde qui regardent. » Mais il a rapidement ramené le sujet au matériel, annonçant que Vera Rubin était en production complète.

Le nom Vera Rubin vient d’une astronome du 20e siècle qui a observé que la vitesse de rotation à la périphérie des galaxies était presque la même qu’au centre, ce qui n’avait pas de sens selon la physique newtonienne, à moins qu’il n’existe de la matière invisible — la matière noire. Nvidia a nommé sa plateforme informatique de prochaine génération Vera Rubin car les « choses invisibles » qu’ils rencontrent gonflent aussi : les besoins en puissance de calcul.

Huang Ren-Hui a décrit la démence des besoins en puissance de calcul. La taille des modèles croit 10 fois par an, après o1 le raisonnement devient un « processus de pensée », l’entraînement ultérieur introduit un apprentissage par renforcement avec une explosion du volume de calcul ; le mise à l’échelle au moment du test fait augmenter le nombre de tokens à chaque inférence de 5 fois ; et à chaque fois qu’on atteint une nouvelle frontière, le coût des tokens de la génération précédente chute 10 fois plus vite par an. Cela montre à l’inverse que la concurrence est extrêmement féroce, Nvidia doit « faire avancer l’état de l’art du calcul une fois par an, sans pouvoir prendre du retard une seule année ».

Architecture à six cœurs coordonnés de Vera Rubin

CPU personnalisé Vera : performances doublées, partage de données bidirectionnel cohérent avec le GPU Rubin dès le départ

GPU Rubin : une carte de calcul peut atteindre 100 PFLOPS de puissance de calcul IA, soit 5 fois la génération précédente

Réseau et sécurité : ConnectX-9 offre une bande passante latérale de 1,6 Tbps, BlueField-4 DPU décharge le stockage et la sécurité

Une carte de calcul contient 17 000 composants, les plateaux informatiques ont été repensés pour éliminer « les câbles, les tuyaux et les ventilateurs ». Le commutateur NVLink de sixième génération connecte 18 nœuds en un tout, puis s’étend à 200G avec optique co-emballée, reliant des milliers de baies informatiques en « usines IA ». Dans une tâche d’entraînement de 10 millions de paramètres et 100 millions de tokens, Rubin n’a besoin que du quart de la taille du système de Blackwell pour terminer l’entraînement dans la même fenêtre d’un mois.

Huang Ren-Hui a également mentionné des défis industriels réalistes. Nvidia avait à l’interne une règle selon laquelle chaque nouvelle génération de produits changeait au maximum un ou deux puces, sans torturer la chaîne d’approvisionnement. Mais avec le ralentissement de la loi de Moore, la croissance des transistors ne peut pas suivre le rythme de la croissance 10 fois des modèles, 5 fois des tokens et 10 fois de la réduction des coûts. Sans faire de « co-design (conception collaborative) », il n’est pas possible de suivre, donc cette génération a dû repenser chaque puce. La performance de point flottant du GPU Rubin est 5 fois celle de Blackwell, mais elle n’a que 1,6 fois plus de transistors, ce qui signifie que l’accumulation de transistors par procédé a atteint un plafond, et seule la conception collaborative au niveau architecture et système peut produire des performances.

Stratégie de transition collective des modèles open source

Au cours de l’année écoulée, ce qui a vraiment enthousiasme Huang Ren-Hui, ce n’est pas le progrès d’un modèle fermé particulier, mais la transition collective du mode open source. Huang Ren-Hui a déclaré que les modèles ouverts accusent actuellement environ « six mois de retard » par rapport aux modèles de pointe, mais tous les six mois émerge un nouveau modèle plus intelligent, donc les téléchargements explosent, car les startups veulent participer, les grandes entreprises veulent participer, les chercheurs veulent participer, les étudiants veulent participer, pratiquement tous les pays veulent participer.

Beaucoup de gens se trompent sur Nvidia, en disant qu’elle se contente de « vendre des GPU », tandis que Huang Ren-Hui a répété plusieurs fois sur la scène du CES que Nvidia devient constructeur de modèles open source de pointe, et de type totalement ouvert. Il a énuméré un tas de modèles open source d’Nvidia : du Nemotron hybride Transformer-SSM, au modèle du monde Cosmos, jusqu’au robot humanoïde Groot. Même dans le domaine de la conduite autonome avec Alpamayo, non seulement le modèle est open source, mais aussi les données d’entraînement.

Huang Ren-Hui a annoncé qu’Alpamayo est « le premier IA de conduite autonome au monde qui sait penser et raisonner ». Il va de bout en bout de la caméra à l’actionneur, a appris à la fois d’énormes « démonstrations humaines » de kilométrage réel, et aussi de kilométrage généré par Cosmos, plus « des centaines de milliers » d’échantillons très finement annotés. La clé est qu’il ne produit pas seulement le volant et les freins/accélérateur, mais vous dit aussi quelle action il prendra, pourquoi, et quelle sera la trajectoire.

Huang Ren-Hui a déclaré qu’ils ont commencé la conduite autonome il y a huit ans parce qu’ils ont jugé très tôt que l’apprentissage profond refait toute la pile informatique. Alpamayo annonce qu’il est « open source aujourd’hui », cette échelle d’ingénierie est énorme, Huang Ren-Hui a dit que leur équipe AV compte « des milliers de personnes », et Mercedes collabore avec eux depuis cinq ans. Il prédit que dans le futur il pourrait y avoir 10 milliards de voitures à conduire autonome, « chaque voiture aura la capacité de penser, chaque voiture sera entraînée par l’IA ».

Architecture à trois ordinateurs de l’IA physique

Huang Ren-Hui a passé énormément de temps à dire une chose : laisser l’IA comprendre le sens commun du monde est beaucoup plus difficile que le langage. La permanence des objets, les relations de cause à effet, l’inertie, la friction, la gravité, c’est instinctif pour les nourrissons humains, mais complètement étranger pour l’IA. Et les données du monde réel ne sont jamais suffisantes. Il a dit que pour faire de l’IA physique, il faut « trois ordinateurs » : un pour entraîner le modèle, un pour l’inférence en périphérie dans les voitures/robots/usines, et un pour la simulation.

Omniverse est un monde de simulation numérique jumelé, Cosmos est un modèle fondamental du monde, les modèles de robots incluent Groot et Alpamayo. D’où proviennent les données d’entraînement ? Les modèles de langage ont beaucoup de texte, il y a beaucoup de vraies vidéos du monde physique, mais c’est loin de suffire pour couvrir les interactions diverses. Ils utilisent donc des données synthétiques conformes aux lois de la physique, générant sélectivement des échantillons d’entraînement.

Cosmos peut générer des vidéos réalistes à partir d’une seule image, générer des mouvements cohérents à partir de descriptions de scènes 3D, générer des vidéos panoramiques à partir de journaux de capteurs, générer des « cas limites » à partir d’invite de scène. Peut aussi simuler en boucle fermée, une action faite, le monde répond, Cosmos réfléchit à la prochaine étape. Huang Ren-Hui définit la conduite autonome comme le premier « grand marché grand public » de l’IA physique, et affirme que « le point de basculement se situe exactement en ce moment », au cours de la prochaine décennie une grande part des voitures du monde sera hautement automatisée.

Huang Ren-Hui pense que l’IA future ne sera pas seulement multimodale, mais « multi-modèles ». Le système le plus intelligent devrait appeler le modèle le plus approprié pour différentes tâches, le système le plus réel est naturellement multi-cloud, hybride cloud et edge computing. Cela signifie que l’essence des applications d’IA est en fait une architecture d’ordonnancement et d’inférence, un agent capable de juger l’intention, de sélectionner le modèle, d’appeler les outils et de composer les résultats. Huang Ren-Hui pense que cet agent devient la nouvelle « interface utilisateur », plus d’Excel, plus de formulaires, plus de ligne de commande.

Nvidia vit un moment paradoxal. Elle semble être le plus dangereux dans tous les récits de bulles, sa capitalisation boursière a atteint une hauteur sans précédent. Mais c’est aussi le plus fort parmi tous les stocks de concept d’IA, avec des revenus trimestriels et des bénéfices nets de centaines de milliards de dollars, une marge brute qui peut atteindre 70 %. Lorsqu’une entreprise maîtrise à la fois le récit technologique, une position importante dans la chaîne industrielle, et l’attention du marché financier, elle devient une idole. L’avantage de l’idole est que la foi apporte une prime, l’inconvénient est que la prime signifie que vous ne pouvez pas vous tromper.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire