Mensagem do Gate News, 29 de abril — Os pesos do modelo flash Ling-2.6 da Ant Group agora foram disponibilizados como código aberto, após anteriormente estarem disponíveis apenas via API. O modelo tem 104 bilhões de parâmetros no total, com 7,4 bilhões ativados por inferência, uma janela de contexto de 256K e licenciamento MIT. Versões de precisão BF16, FP8 e INT4 estão disponíveis no HuggingFace e no ModelScope.
O Ling-2.6-flash introduz melhorias híbridas de atenção linear sobre o Ling 2.0, atualizando o GQA original para uma arquitetura híbrida 1:7 MLA mais Lightning Linear, combinada com MoE altamente esparso. A eficiência da inferência excede significativamente a de modelos comparáveis: a velocidade máxima de geração chega a 340 tokens/s em 4 GPUs H20, com throughput de prefill e decode aproximadamente 4x maior do que em modelos comparáveis de código aberto. Benchmarks relacionados a agentes mostram forte desempenho: BFCL-V4, TAU2-bench, SWE-bench Verified (61.2%), Claw-Eval e PinchBench atingem ou se aproximam de níveis SOTA. Em toda a suíte de benchmarks do Artificial Analysis, o consumo total de tokens é de apenas 15 milhões. No AIME 2026, o modelo marcou 73,85%.
O site oficial da Ant Group também lista a versão carro-chefe Ling-2.6-1T (trilion-parameter) e a versão leve Ling-2.6-mini (lightweight version), embora, até a publicação, seus pesos permaneçam não lançados no HuggingFace, com apenas a série flash disponível para download.
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.
Related Articles
Cognition estabelece Singapura como sede da APAC e mira expansão regional
Mensagem da Gate News, 29 de abril — A Cognition, a startup de codificação com IA por trás da Devin, anunciou em 29 de abril que estabelecerá Singapura como sua sede na Ásia-Pacífico para supervisionar a expansão regional por toda a Sudeste Asiático, Austrália, Índia e Coreia do Sul.
Richard Spence liderará as operações da APAC
GateNews37m atrás
Google e o Pentágono assinam acordo secreto de IA, carta aberta de funcionários se opõe
De acordo com o The Information, em 28 de abril, a Google assinou um acordo para fornecer ao Pentágono dos EUA modelos de IA (inteligência artificial) usados para trabalhos confidenciais. O New York Times, citando fontes familiarizadas com o assunto, disse que o acordo permite que o Departamento de Defesa dos EUA use a IA da Google para fins governamentais legítimos, com natureza semelhante aos acordos confidenciais de implantação de IA que o Pentágono assinou com a OpenAI e a xAI no mês passado.
MarketWhisper58m atrás
Relatório de pesquisa da a16z Crypto: A taxa de exploração de vulnerabilidades de DeFi por agentes de IA atingiu 70%
De acordo com o relatório de pesquisa publicado pela a16z Crypto em 29 de abril, com condições em que os agentes de IA são equipados com conhecimento estruturado do domínio, a taxa de sucesso de reproduzir vulnerabilidades de manipulação do preço do Ethereum atinge 70%; em ambientes de sandbox sem qualquer conhecimento do domínio, a taxa de sucesso é de apenas 10%. O relatório também registrou casos em que agentes de IA, de forma independente, contornaram as restrições do sandbox para acessar informações futuras de transações, e padrões sistemáticos de falha dos agentes ao criar planos de ataque lucrativos em várias etapas.
MarketWhisper1h atrás
Modelos da OpenAI para Migrar Gradualmente para o Chip Personalizado Trainium da Amazon, Diz Altman Ele Está 'Ansioso' por Isso
Mensagem do Gate News, 29 de abril — Modelos da OpenAI executados no Amazon Web Services' Bedrock irão migrar gradualmente para o Trainium, o chip de IA personalizado da Amazon, de acordo com comentários recentes do CEO da OpenAI, Sam Altman, e de executivos da AWS. Atualmente, os modelos operam em um ambiente misto usando tanto GPUs e Tr
GateNews2h atrás
Altman: Precificação Baseada em Tokens Ficando Obsoleta à medida que o GPT-5.5 Muda o Foco para Conclusão de Tarefas em vez de Contagem de Tokens
Mensagem do Gate News, 29 de abril — O CEO da OpenAI, Sam Altman, disse em uma entrevista com Ben Thompson na Stratechery que a precificação baseada em tokens não é um modelo viável a longo prazo para serviços de IA. Usando o GPT-5.5 como exemplo, Altman observou que, embora o preço por token seja significativamente mais alto do que o do GPT-5.4, o modelo usa muito menos tokens para concluir a mesma tarefa, o que significa que os clientes não se importam com a contagem de tokens — eles só se importam se a tarefa é concluída e qual é o custo total.
GateNews2h atrás
Sam Altman publica capturas de tela do Codex em dois modos, com as funções de escritório e programação oficialmente separadas
O CEO da OpenAI, Sam Altman, publicou no dia 29 de abril no X uma captura de tela e um comunicado: o Codex está lançando uma nova interface de orientação; ao entrar pela primeira vez, os usuários devem escolher entre dois modos, respectivamente para Excelmogging e Codemaxxing. Os usuários ativos semanais atuais do Codex já ultrapassam 4 milhões, e os casos de uso já se estenderam de geração de código para usos não técnicos.
MarketWhisper2h atrás