Durante a CES 2026, o CEO da NVIDIA (NVIDIA), Jensen Huang, realizou um discurso de abertura “NVIDIA Live” em Las Vegas que raramente abordou a linha de produtos de placas gráficas GeForce, mas em vez disso focou completamente em data centers, veículos autónomos, robótica e modelos abertos.
Durante este discurso, Huang anunciou a colaboração entre NVIDIA e Mercedes-Benz, com o primeiro carro autónomo com IA já em produção em massa. Certificado pela NCAP como o carro mais seguro, o Mercedes-Benz CLA está equipado com o modelo de veículo autónomo da NVIDIA, Alpamayo. Previsto para lançamento no mercado americano no Q1, entrada na Europa no Q2, e chegada mais rápida à Ásia no Q3 deste ano.
O Vera Rubin, muito aguardado, também foi totalmente colocado em produção. Este é o produto emblemático da NVIDIA após o Blackwell, não é um único chip, mas sim o nome da plataforma IA de próxima geração. Um único Vera Rubin Pod é composto por 16 racks, com um total de 1.152 GPUs, com cada rack configurado com 72 Rubins. Cada Rubin é na verdade integrado por dois núcleos de GPU. Em comparação com a Grace CPU e a Blackwell GPU, a nova geração Vera CPU apresenta melhorias significativas em desempenho single-thread, capacidade de memória e indicadores gerais de computação.
Também apresentado nesta ocasião foi o novo processador BlueField-4 desenvolvido especificamente para data centers, que pode dividir data centers de grande escala em múltiplos blocos independentes para uso simultâneo de diferentes utilizadores. A nova plataforma de comutação Ethernet Co-Packaged Optics (CPO) Spectrum-X para núcleo de rede de data center IA, com a tecnologia-chave vindo do novo processo COOP (Silicon Photonics Integrado) desenvolvido conjuntamente pela TSMC e NVIDIA.
Em nível de modelo, Huang enfatizou que a abertura será a chave para o ecossistema de IA. A NVIDIA atualmente lançou combinações de modelos completamente abertos em seis domínios, incluindo Clara (saúde), Earth-2 (clima), Nemotron (inferência e multimodal), Cosmos (robótica e simulação), GR00T (inteligência encarnada) e Alpamayo para veículos autónomos.
Primeiro Carro Autónomo com IA da NVIDIA Lançado no Q1
Na CES 2026, Huang primeiro mencionou o Alpamayo, posicionado como o primeiro modelo Visão-Linguagem-Ação (VLA) aberto com capacidades de inferência global. O Alpamayo utiliza treinamento end-to-end, ligando diretamente da entrada do sensor à direção, travagem e saída de aceleração, com dados de treinamento combinando uma grande quantidade de demonstrações reais de condução humana, dados sintéticos gerados pelo Cosmos e dezenas de milhares de amostras de anotação fina. Diferente dos sistemas tradicionais, o Alpamayo não apenas executa ações, mas também explica em tempo real por que toma essas ações.
Huang anunciou que o primeiro carro autónomo da NVIDIA entrará em circulação no primeiro trimestre deste ano. Previsto para lançamento nos EUA no Q1, lançamento na Europa no Q2, e chegada mais rápida à Ásia no Q3-Q4.
Arquitetonicamente, a camada de modelo é o Alpamayo, enquanto a camada de aplicação é o Mercedes-Benz CLA. Este Mercedes-Benz CLA acaba de ser certificado e já está em produção em massa. Também obteve avaliação NCAP, sendo classificado como o carro mais seguro do mundo. Este carro autónomo tem dois modos: um sistema de condução autónoma com IA com capacidade de inferência, e outro sistema de condução autónoma tradicional totalmente rastreável e orientado por regras. A política de segurança e módulo de avaliação integrados determinarão em tempo real se a IA deve assumir o controlo ou recuar para o sistema tradicional conservador.
Huang Anuncia Vera Rubin em Produção em Massa Completa, Análise Completa de Especificações
Um dos núcleos do discurso foi o anúncio oficial da NVIDIA de que a plataforma Rubin entrou em produção em massa total. Rubin é posicionado como a geração sucessora do Blackwell e também a primeira plataforma de IA de seis chips da NVIDIA construída com mentalidade de co-design extremo, partindo de data centers, integrando computação, rede, armazenamento e stack de software.
Vera Rubin no ecossistema NVIDIA não é um único chip, mas sim o nome da plataforma IA de próxima geração: o núcleo é integrar a Vera CPU e a Rubin GPU através de NVLink-C2C em um super chip Vera Rubin, e depois empilhá-lo até o Vera Rubin NVL72 computador super IA ao nível de rack, usado para executar IA agentic, inferência de contexto longo e cargas de trabalho de fábrica de IA.
Um único Vera Rubin Pod é composto por 16 racks, com um total de 1.152 GPUs, com cada rack configurado com 72 Rubins, e cada Rubin é na verdade integrado por dois núcleos de GPU. A Vera CPU acompanhante é especialmente estruturada para super computadores, oferecendo duas vezes a eficiência energética dos melhores CPUs atuais em cenários de restrição de potência, com taxa de transferência de dados extremamente elevada.
Em comparação com a Grace CPU e Blackwell GPU anteriores, a nova geração Vera CPU apresenta melhorias significativas em desempenho single-thread, capacidade de memória e indicadores gerais de computação. Após conexão direta com a Rubin GPU, forma um núcleo de computação IA de grande volume, como um navio de guerra gigante.
O núcleo da plataforma Rubin inclui Rubin GPU, Vera CPU, NVLink 6, rede Ethernet Spectrum-X, ConnectX-9 SuperNIC e BlueField-4 DPU. Entre estes, a Rubin GPU sob precisão NVFP4 pode atingir 50 petaflops de desempenho de inferência por chip. Huang declarou abertamente que através do design integrado de gabinetes completos e rede, o objetivo do Rubin é eliminar todos os gargalos, reduzindo o custo total de propriedade (TCO) para cada token de IA para aproximadamente um décimo do anterior.
Novo Processador de Data Center BlueField-4
Em nível de hardware, a NVIDIA também divulgou pela primeira vez os detalhes reais de implantação da Vera CPU e BlueField-4. A Vera CPU é projetada com cenários restritos por potência como núcleo de design, com eficiência energética por unidade em dobro dos melhores CPUs existentes, melhorando significativamente o desempenho single-thread e capacidade de memória, especificamente para super computadores de IA e data centers.
Huang apresentou ainda o novo processador de data center BlueField-4 da NVIDIA, que pode dividir data centers de grande escala em múltiplos blocos independentes para uso simultâneo de diferentes utilizadores, e descarregar uma grande quantidade de trabalho como virtualização, segurança e gerenciamento do tráfego de rede norte-sul do CPU, tornando-se equipamento padrão para cada nó de computação. Ele também anunciou que a NVIDIA promoverá a padronização da arquitetura do sistema da indústria, permitindo que todo o ecossistema e cadeia de suprimentos compartilhem os mesmos componentes.
Como um sistema MGX é composto por aproximadamente 80.000 componentes, modificar as especificações a cada ano causaria desperdício massivo. Portanto, dos principais fabricantes de sistemas como Foxconn, Quanta, Wistron até HP, Dell e Lenovo, todos podem implantar diretamente novas plataformas sob os sistemas de manufatura existentes.
Digno de nota é que, embora o consumo total de energia do Vera Rubin seja o dobro da geração anterior Grace Blackwell, seu fluxo de ar de entrada é quase idêntico, e a temperatura da água de arrefecimento permanece em 45°C, com data centers nem mesmo precisando de máquinas de água fria, equivalente a arrefecer super computadores com água quente.
Plataforma de Comutação CPO de Data Center, Tecnologia-Chave Vindo do Processo COOP da TSMC
A nova plataforma de comutação Spectrum-X Ethernet Co-Packaged Optics (CPO) para núcleo de rede de data center IA, sua tecnologia-chave vem do processo COOP (Co-Optimized Optics Packaging, Silicon Photonics Integrado) desenvolvido conjuntamente pela TSMC e NVIDIA.
Este processo integra diretamente componentes ópticos de fotónica de silício no núcleo da embalagem do chip de comutação, em vez de módulos ópticos externos tradicionais, permitindo que um único chip de comutação suporte até 102,4 Tb/s de largura de banda de expansão horizontal, oferecendo até 512 conexões de alta velocidade de 200Gb/s por porta.
Este artigo, “Huang Define Rubin Vera de Produção em Massa para 2026 na CES, Tecnologia-Chave Processador Vindo da TSMC”, apareceu pela primeira vez em ABMedia Chain News.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Huang Ren-hui CES estabelece o tom para 2026: Vera Rubin em produção em massa completa, carros autónomos com IA a lançar em Q1, processo-chave da TSMC
Durante a CES 2026, o CEO da NVIDIA (NVIDIA), Jensen Huang, realizou um discurso de abertura “NVIDIA Live” em Las Vegas que raramente abordou a linha de produtos de placas gráficas GeForce, mas em vez disso focou completamente em data centers, veículos autónomos, robótica e modelos abertos.
Durante este discurso, Huang anunciou a colaboração entre NVIDIA e Mercedes-Benz, com o primeiro carro autónomo com IA já em produção em massa. Certificado pela NCAP como o carro mais seguro, o Mercedes-Benz CLA está equipado com o modelo de veículo autónomo da NVIDIA, Alpamayo. Previsto para lançamento no mercado americano no Q1, entrada na Europa no Q2, e chegada mais rápida à Ásia no Q3 deste ano.
O Vera Rubin, muito aguardado, também foi totalmente colocado em produção. Este é o produto emblemático da NVIDIA após o Blackwell, não é um único chip, mas sim o nome da plataforma IA de próxima geração. Um único Vera Rubin Pod é composto por 16 racks, com um total de 1.152 GPUs, com cada rack configurado com 72 Rubins. Cada Rubin é na verdade integrado por dois núcleos de GPU. Em comparação com a Grace CPU e a Blackwell GPU, a nova geração Vera CPU apresenta melhorias significativas em desempenho single-thread, capacidade de memória e indicadores gerais de computação.
Também apresentado nesta ocasião foi o novo processador BlueField-4 desenvolvido especificamente para data centers, que pode dividir data centers de grande escala em múltiplos blocos independentes para uso simultâneo de diferentes utilizadores. A nova plataforma de comutação Ethernet Co-Packaged Optics (CPO) Spectrum-X para núcleo de rede de data center IA, com a tecnologia-chave vindo do novo processo COOP (Silicon Photonics Integrado) desenvolvido conjuntamente pela TSMC e NVIDIA.
Em nível de modelo, Huang enfatizou que a abertura será a chave para o ecossistema de IA. A NVIDIA atualmente lançou combinações de modelos completamente abertos em seis domínios, incluindo Clara (saúde), Earth-2 (clima), Nemotron (inferência e multimodal), Cosmos (robótica e simulação), GR00T (inteligência encarnada) e Alpamayo para veículos autónomos.
Primeiro Carro Autónomo com IA da NVIDIA Lançado no Q1
Na CES 2026, Huang primeiro mencionou o Alpamayo, posicionado como o primeiro modelo Visão-Linguagem-Ação (VLA) aberto com capacidades de inferência global. O Alpamayo utiliza treinamento end-to-end, ligando diretamente da entrada do sensor à direção, travagem e saída de aceleração, com dados de treinamento combinando uma grande quantidade de demonstrações reais de condução humana, dados sintéticos gerados pelo Cosmos e dezenas de milhares de amostras de anotação fina. Diferente dos sistemas tradicionais, o Alpamayo não apenas executa ações, mas também explica em tempo real por que toma essas ações.
Huang anunciou que o primeiro carro autónomo da NVIDIA entrará em circulação no primeiro trimestre deste ano. Previsto para lançamento nos EUA no Q1, lançamento na Europa no Q2, e chegada mais rápida à Ásia no Q3-Q4.
Arquitetonicamente, a camada de modelo é o Alpamayo, enquanto a camada de aplicação é o Mercedes-Benz CLA. Este Mercedes-Benz CLA acaba de ser certificado e já está em produção em massa. Também obteve avaliação NCAP, sendo classificado como o carro mais seguro do mundo. Este carro autónomo tem dois modos: um sistema de condução autónoma com IA com capacidade de inferência, e outro sistema de condução autónoma tradicional totalmente rastreável e orientado por regras. A política de segurança e módulo de avaliação integrados determinarão em tempo real se a IA deve assumir o controlo ou recuar para o sistema tradicional conservador.
Huang Anuncia Vera Rubin em Produção em Massa Completa, Análise Completa de Especificações
Um dos núcleos do discurso foi o anúncio oficial da NVIDIA de que a plataforma Rubin entrou em produção em massa total. Rubin é posicionado como a geração sucessora do Blackwell e também a primeira plataforma de IA de seis chips da NVIDIA construída com mentalidade de co-design extremo, partindo de data centers, integrando computação, rede, armazenamento e stack de software.
Vera Rubin no ecossistema NVIDIA não é um único chip, mas sim o nome da plataforma IA de próxima geração: o núcleo é integrar a Vera CPU e a Rubin GPU através de NVLink-C2C em um super chip Vera Rubin, e depois empilhá-lo até o Vera Rubin NVL72 computador super IA ao nível de rack, usado para executar IA agentic, inferência de contexto longo e cargas de trabalho de fábrica de IA.
Um único Vera Rubin Pod é composto por 16 racks, com um total de 1.152 GPUs, com cada rack configurado com 72 Rubins, e cada Rubin é na verdade integrado por dois núcleos de GPU. A Vera CPU acompanhante é especialmente estruturada para super computadores, oferecendo duas vezes a eficiência energética dos melhores CPUs atuais em cenários de restrição de potência, com taxa de transferência de dados extremamente elevada.
Em comparação com a Grace CPU e Blackwell GPU anteriores, a nova geração Vera CPU apresenta melhorias significativas em desempenho single-thread, capacidade de memória e indicadores gerais de computação. Após conexão direta com a Rubin GPU, forma um núcleo de computação IA de grande volume, como um navio de guerra gigante.
O núcleo da plataforma Rubin inclui Rubin GPU, Vera CPU, NVLink 6, rede Ethernet Spectrum-X, ConnectX-9 SuperNIC e BlueField-4 DPU. Entre estes, a Rubin GPU sob precisão NVFP4 pode atingir 50 petaflops de desempenho de inferência por chip. Huang declarou abertamente que através do design integrado de gabinetes completos e rede, o objetivo do Rubin é eliminar todos os gargalos, reduzindo o custo total de propriedade (TCO) para cada token de IA para aproximadamente um décimo do anterior.
Novo Processador de Data Center BlueField-4
Em nível de hardware, a NVIDIA também divulgou pela primeira vez os detalhes reais de implantação da Vera CPU e BlueField-4. A Vera CPU é projetada com cenários restritos por potência como núcleo de design, com eficiência energética por unidade em dobro dos melhores CPUs existentes, melhorando significativamente o desempenho single-thread e capacidade de memória, especificamente para super computadores de IA e data centers.
Huang apresentou ainda o novo processador de data center BlueField-4 da NVIDIA, que pode dividir data centers de grande escala em múltiplos blocos independentes para uso simultâneo de diferentes utilizadores, e descarregar uma grande quantidade de trabalho como virtualização, segurança e gerenciamento do tráfego de rede norte-sul do CPU, tornando-se equipamento padrão para cada nó de computação. Ele também anunciou que a NVIDIA promoverá a padronização da arquitetura do sistema da indústria, permitindo que todo o ecossistema e cadeia de suprimentos compartilhem os mesmos componentes.
Como um sistema MGX é composto por aproximadamente 80.000 componentes, modificar as especificações a cada ano causaria desperdício massivo. Portanto, dos principais fabricantes de sistemas como Foxconn, Quanta, Wistron até HP, Dell e Lenovo, todos podem implantar diretamente novas plataformas sob os sistemas de manufatura existentes.
Digno de nota é que, embora o consumo total de energia do Vera Rubin seja o dobro da geração anterior Grace Blackwell, seu fluxo de ar de entrada é quase idêntico, e a temperatura da água de arrefecimento permanece em 45°C, com data centers nem mesmo precisando de máquinas de água fria, equivalente a arrefecer super computadores com água quente.
Plataforma de Comutação CPO de Data Center, Tecnologia-Chave Vindo do Processo COOP da TSMC
A nova plataforma de comutação Spectrum-X Ethernet Co-Packaged Optics (CPO) para núcleo de rede de data center IA, sua tecnologia-chave vem do processo COOP (Co-Optimized Optics Packaging, Silicon Photonics Integrado) desenvolvido conjuntamente pela TSMC e NVIDIA.
Este processo integra diretamente componentes ópticos de fotónica de silício no núcleo da embalagem do chip de comutação, em vez de módulos ópticos externos tradicionais, permitindo que um único chip de comutação suporte até 102,4 Tb/s de largura de banda de expansão horizontal, oferecendo até 512 conexões de alta velocidade de 200Gb/s por porta.
Este artigo, “Huang Define Rubin Vera de Produção em Massa para 2026 na CES, Tecnologia-Chave Processador Vindo da TSMC”, apareceu pela primeira vez em ABMedia Chain News.