DeepSeek lança uma versão de pré-visualização open source do V4, pontuação técnica 3206 superando o GPT-5.4

DeepSeek V4開源預覽版

A DeepSeek lançou oficialmente a série de prévia V4 em 24 de abril, com pesos de modelo sincronizados no Hugging Face e no ModelScope, em código aberto sob a licença MIT. De acordo com o relatório técnico da DeepSeek V4, o V4-Pro-Max (modo de maior intensidade de inferência) obteve 3206 pontos na referência do Codeforces, superando o GPT-5.4.

Especificações de arquitetura dos dois modelos MoE

De acordo com o relatório técnico da DeepSeek V4, a série V4 inclui dois modelos de Mixture of Experts (MoE):

V4-Pro: 1,6T de parâmetros totais, 49B de ativação por token, suporte a contexto de 1M token

V4-Flash: 284B de parâmetros totais, 13B de ativação por token, suporte a contexto de 1M token

De acordo com o relatório técnico, no contexto de 1M o FLOPs de inferência por token do V4-Pro é apenas 27% do do V3.2, e o cache KV cai para 10% do do V3.2. Isso se deve principalmente ao upgrade de arquitetura do mecanismo de atenção por mistura (CSA de atenção esparsa comprimida + HCA de atenção comprimida pesada). O tamanho dos dados de pré-treinamento excede 32T tokens; o otimizador de treinamento foi atualizado para o Muon.

Metodologia de pós-treinamento: destilação de estratégia online substitui aprendizado por reforço de mistura

De acordo com o relatório técnico da DeepSeek V4, a atualização central do pós-treinamento do V4 está em substituir completamente a fase de mixed RL (aprendizado por reforço de mistura) do V3.2 por destilação de estratégia online (On-Policy Distillation, OPD). O novo processo é dividido em duas etapas: primeiro, treinar especialistas de domínio separadamente para áreas como matemática, código, Agent e seguir instruções (SFT + GRPO aprendizado por reforço); em seguida, usar vários professores OPD para destilar as capacidades de mais de uma dúzia de especialistas em um modelo unificado, alinhando por logit para evitar conflitos de capacidades comuns em métodos tradicionais.

O relatório também introduz um modelo de recompensa generativo (Generative Reward Model, GRM), para tarefas que são difíceis de validar com regras. Com base em poucos dados de rotulagem manual diversificados, o modelo passa a desempenhar simultaneamente as funções de geração e avaliação.

Resultados de benchmark: liderança em codificação, ainda há lacuna em raciocínio de conhecimento

De acordo com o relatório técnico da DeepSeek V4, os resultados de comparação entre V4-Pro-Max e Opus 4.6 Max, GPT-5.4 xHigh e Gemini 3.1 Pro High (não inclui o GPT-5.5 e o Opus 4.7 lançados recentemente):

Codeforces:3206 (GPT-5.4:3168 / Gemini 3.1 Pro:3052)→ o mais alto de todo o campo

LiveCodeBench:93.5 → o mais alto de todo o campo

SWE Verified:80.6, ficando atrás de 80.8 do Opus 4.6, diferença de 0.2 ponto percentual

GPQA Diamond:90.1, ficando atrás de 94.3 do Gemini 3.1 Pro

SimpleQA-Verified:57.9, ficando atrás de 75.6 do Gemini 3.1 Pro

HLE:37.7, ficando atrás de 44.4 do Gemini 3.1 Pro

O relatório técnico também aponta que as comparações acima não incluem o GPT-5.5 e o Opus 4.7 lançados mais recentemente; a diferença entre o V4 e os modelos fechados da geração mais nova ainda precisa ser verificada por testes de terceiros.

Perguntas frequentes

Quais são os termos de licença de código aberto do DeepSeek V4 Preview e onde posso obtê-los?

De acordo com o anúncio oficial da DeepSeek de 24 de abril, a série V4 é de código aberto sob a licença MIT; os pesos do modelo já foram disponibilizados no Hugging Face e no ModelScope, com aplicação para uso comercial e acadêmico.

Qual é a diferença no porte de parâmetros entre o DeepSeek V4-Pro e o V4-Flash?

De acordo com o relatório técnico da DeepSeek V4, o V4-Pro tem 1,6T de parâmetros totais, com 49B ativados por token; o V4-Flash tem 284B de parâmetros totais, com 13B ativados por token. Ambos oferecem suporte a contexto de 1M token.

Qual é o resultado da comparação de benchmark entre o DeepSeek V4-Pro-Max e o GPT-5.4 e o Gemini 3.1 Pro?

De acordo com o relatório técnico da DeepSeek V4, o V4-Pro-Max superou o GPT-5.4 e o Gemini 3.1 Pro em Codeforces (3206 pontos) e LiveCodeBench (93.5), mas ainda ficou atrás do Gemini 3.1 Pro nos benchmarks orientados a conhecimento (GPQA Diamond, SimpleQA-Verified, HLE); o conjunto de comparação não inclui o GPT-5.5 e o Opus 4.7.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Valor de Mercado da Nvidia Recupera $5 Trilhão com Aumento da Demanda por IA, Preços de Aluguel de GPUs Sobem

Mensagem do Gate News, 25 de abril — As ações da Nvidia dispararam mais de 4% nas negociações dos EUA em 24 de abril, levando o valor de mercado da empresa acima de $5 trilhão pela primeira vez em quase seis meses, impulsionado por um forte aumento na demanda por IA. A Intel sinalizou que o tamanho potencial do mercado para infraestrutura de IA poderia a

GateNews30m atrás

Nvidia Implementa o Agente de IA Codex da OpenAI em Toda a Força de Trabalho na Infraestrutura Blackwell

Mensagem do Gate News, 25 de abril — A Nvidia lançou o Codex, da OpenAI, um agente de IA alimentado pelo GPT-5.5, para toda a sua força de trabalho após um teste bem-sucedido com aproximadamente 10.000 funcionários, de acordo com comunicações internas do CEO Jensen Huang e do CEO da OpenAI, Sam Altman. Codex é projetado para ajudar com

GateNews1h atrás

O Departamento de Estado dos EUA Adverte sobre a Distilação do Modelo de IA DeepSeek

O Departamento de Estado dos EUA emitiu um cabo em 24 de abril para missões diplomáticas e consulares em todo o mundo, alertando governos estrangeiros sobre os esforços da China para copiar sistemas de IA americanos por meio de destilação, de acordo com a Reuters. O cabo

CryptoFrontier1h atrás

Startup de IA para Saúde do Professor de Stanford Busca $100M a $1B de Avaliação

Mensagem do Gate News, 25 de abril — o professor de Stanford James Zou está levantando aproximadamente $100 milhões para a Human Intelligence, uma startup da Califórnia que desenvolve modelos de IA para fisiologia humana, com uma avaliação de cerca de $1 bilhões. A empresa se baseia nas pesquisas de Zou em fisiologia e IA. O algoritmo EchoNet do laboratório

GateNews1h atrás

Startup de Codificação com IA Cognition em Conversas para Rodada de Financiamento com Avaliação de $25B Valuation

Mensagem do Gate News, 25 de abril — A startup de codificação com IA Cognition está em conversas iniciais para captar centenas de milhões de dólares ou mais, com uma avaliação de aproximadamente um $25 bilhão, de acordo com pessoas familiarizadas com o assunto. O interesse aumentou após a aquisição, pela SpaceX, de uma startup rival de codificação com IA. Co

GateNews1h atrás

Meta vai Implantar Milhões de Chips AWS Graviton para Cargas de Trabalho de IA

Mensagem do Gate News, 25 de abril — A Amazon anunciou em 24 de abril que a Meta usará milhões de chips AWS Graviton para cargas de trabalho de IA, marcando uma vitória significativa de cliente para os processadores ARM internos da AWS. Os chips serão usados para inferência de IA e computação geral, em vez de

GateNews1h atrás
Comentário
0/400
Sem comentários