Nvidia 260 mil investimento em IA open source, Nemotron 3 Super desafia modelos chineses

MarketWhisper

NVIDIA lança Nemotron 3 Super

A NVIDIA lançou oficialmente na quinta-feira o Nemotron 3 Super, um modelo de IA de peso aberto com um total de 120 bilhões de parâmetros, profundamente otimizado para agentes de IA autônomos e tarefas de contexto extremamente longo. A NVIDIA anunciou um plano estratégico de cinco anos para investir 26 bilhões de dólares na criação de modelos de IA de código aberto, respondendo diretamente ao rápido crescimento de modelos de código aberto chineses no mercado global.

A arquitetura técnica do Nemotron 3 Super: uma fusão profunda de três componentes raros

O núcleo do design do Nemotron 3 Super é resolver uma dor de cabeça fundamental em sistemas de múltiplos agentes — cada chamada de ferramenta, passo de raciocínio e fragmento de contexto precisam ser retransmitidos do zero, aumentando os custos e desviando o modelo do esperado. A NVIDIA integrou três componentes que raramente aparecem juntos na mesma arquitetura:

As camadas de espaço de estado Mamba-2 (Mamba-2 State Space Layers), que substituem o mecanismo de atenção, oferecem maior velocidade e eficiência de memória ao lidar com fluxos de tokens longos; as camadas de atenção Transformer, que garantem uma recuperação de informação precisa; e o novo design de “Especialistas Latentes MoE” (Latent MoE), que comprime os tokens antes do roteamento, permitindo que o modelo ative quatro vezes mais módulos especialistas pelo mesmo custo computacional.

O modelo foi treinado nativamente no formato proprietário NVFP4 da NVIDIA, aprendendo desde a primeira atualização de gradiente em precisão de 4 bits, evitando perdas de precisão associadas ao treinamento de alta precisão seguido de compressão. A janela de contexto alcança 1 milhão de tokens, podendo armazenar completamente repositórios de código ou cerca de 750 mil palavras em inglês.

Benchmarks de desempenho e aplicações empresariais

A seguir, alguns dados-chave comparativos do desempenho do Nemotron 3 Super em throughput de inferência:

Comparado ao OpenAI GPT-OSS 120B: 2,2 vezes mais rápido

Comparado ao Qwen3.5-122B da Alibaba: 7,5 vezes mais rápido

Comparado à sua geração anterior: aumento de mais de 5 vezes no throughput geral

A NVIDIA divulgou integralmente o processo de treinamento, incluindo os pesos do modelo no Hugging Face, 10 trilhões de amostras de pré-treinamento selecionadas (com mais de 25 trilhões de amostras usadas no treinamento), 40 milhões de amostras pós-treinamento, e planos de reforço de aprendizagem que cobrem 21 configurações ambientais. Atualmente, Perplexity, Palantir, Cadence e Siemens já integraram o modelo em seus fluxos de trabalho.

A estratégia de 26 bilhões de dólares: enfrentando o crescimento global de modelos de código aberto chineses

O lançamento do Nemotron 3 Super é apenas uma parte de uma estratégia maior da NVIDIA. Bryan Catanzaro, vice-presidente de pesquisa em aprendizado profundo, disse à revista Wired que a empresa já treinou recentemente um modelo com 550 bilhões de parâmetros, e também anunciou o investimento de 26 bilhões de dólares em IA de código aberto ao longo de cinco anos.

O contexto estratégico é altamente urgente: segundo estudos do OpenRouter e Andreessen Horowitz, a utilização global de modelos de código aberto chineses subiu de 1,2% no final de 2024 para cerca de 30% até o final de 2025; o Qwen da Alibaba superou o Llama da Meta, tornando-se o modelo de código aberto mais utilizado (dados do Runpod). Rumores indicam que o próximo modelo da DeepSeek foi treinado inteiramente com chips Huawei, o que, se confirmado, oferecerá um forte incentivo para desenvolvedores globais adotarem hardware chinês — exatamente o cenário que a estratégia de código aberto da NVIDIA busca contrabalançar.

Perguntas frequentes

Quais as vantagens do Nemotron 3 Super em relação ao Qwen e ao GPT-OSS?
Em throughput de inferência, o Nemotron 3 Super é 2,2 vezes mais rápido que o GPT-OSS 120B da OpenAI e 7,5 vezes mais rápido que o Qwen3.5-122B da Alibaba. Sua principal inovação é a arquitetura híbrida Mamba-Transformer MoE e o treinamento nativo em NVFP4 de 4 bits, permitindo ativar mais especialistas com o mesmo custo computacional, resultando em um aumento de mais de cinco vezes no throughput em relação à geração anterior.

Por que a NVIDIA investe 26 bilhões de dólares na criação de modelos de IA de código aberto neste momento?
Duas razões principais: primeiro, evitar que o ecossistema de modelos de código aberto da China e seus chips formem um ciclo fechado, enfraquecendo a posição central da NVIDIA na infraestrutura global de IA; segundo, criar modelos otimizados para hardware da NVIDIA, aumentando a fidelidade de compra de seus chips. Com a participação de mercado de modelos chineses de código aberto subindo de 1,2% para cerca de 30%, o momento é de alta urgência.

O treinamento e os pesos do Nemotron 3 Super são totalmente públicos?
Sim. A NVIDIA publicou no Hugging Face todo o processo de treinamento, incluindo os pesos do modelo, 10 trilhões de amostras de pré-treinamento selecionadas, 40 milhões de amostras pós-treinamento e planos de reforço de aprendizagem em 21 configurações ambientais, com maior transparência técnica do que a maioria dos modelos comerciais similares.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários