Responsável pelo grande modelo da Xiaomi: a competição em IA está a mudar para a era dos agentes, e a autoevolução é um evento-chave para a AGI

AI自進化

A responsável da equipa de modelos de IA da Xiaomi, Luo Fuli, concedeu uma entrevista em profundidade na plataforma Bilibili em 24 de abril (número do vídeo: BV1iVoVBgERD). A duração da entrevista foi de 3,5 horas, sendo a primeira vez que ela expõe de forma sistemática as suas perspectivas técnicas publicamente enquanto responsável técnica. Luo Fuli afirmou que a corrida dos grandes modelos já passou da era do Chat para a era dos Agents e indicou que a “auto-evolução” será o acontecimento-chave para a AGI no próximo ano.

Da era do Chat à era dos Agents: juízo técnico central

小米大模型團隊負責人羅福莉訪談

(Fonte: Bilibili)

Com base no que Luo Fuli disse na entrevista do Bilibili, ela afirmou que o foco da competição de grandes modelos em 2026 passará de métricas de qualidade de conversação genérica para a capacidade de execução autónoma e contínua em tarefas complexas. Na entrevista, ela afirmou que, atualmente, os modelos de topo já conseguem otimizar-se autonomamente em tarefas específicas e manter uma execução estável durante 2 a 3 dias, sem necessidade de intervenção humana para ajustes. Na entrevista, ela sublinhou que o avanço da capacidade de “auto-evolução” significa que os sistemas de IA começam a ter capacidade de autocorreção, e nomeou também as variáveis do percurso tecnológico da Anthropic e de tecnologias como o Claude Opus 4.6, bem como o impacto destas no ecossistema global de IA.

Ajustes na afetação de capacidade de computação da Xiaomi e avaliação do desfasamento de Pre-train

De acordo com as revelações de Luo Fuli durante a entrevista, a Xiaomi já realizou ajustes significativos na sua estratégia de alocação de capacidade de computação. Ela explicou que a proporção de capacidade de computação usada habitualmente na indústria é Pre-train:Post-train:Inference = 3:5:1, enquanto a estratégia atual da Xiaomi foi ajustada para 3:1:1, comprimindo de forma acentuada a proporção de treino pós-treino e, em simultâneo, aumentando o investimento de recursos na fase de inferência.

Na entrevista, ela explicou que esta mudança se deve à maturidade da estratégia de Agent RL Scaling, pelo que o pós-treino já não necessita de empilhar grandes quantidades de capacidade de computação, e o aumento de recursos na ponta de inferência reflete a necessidade de capacidades de resposta imediata nos cenários em que os Agents são implementados.

Relativamente ao problema do desfasamento de gerações (de Pre-train) nos grandes modelos no mercado doméstico, Luo Fuli afirmou que este desfasamento passou de 3 anos no passado para alguns meses, e que o foco estratégico atual está a deslocar-se para Agent RL Scaling. O percurso profissional de Luo Fuli inclui o Alibaba DAMO Academy, a empresa de quantificação Huanfang Quant e a DeepSeek (desenvolvedora principal do DeepSeek-V2), e em novembro de 2025 juntou-se à Xiaomi.

Especificações técnicas da série MiMo-V2 e rankings de open source

De acordo com o comunicado da Xiaomi publicado oficialmente em 19 de março de 2026 sobre a série MiMo-V2, desta vez foram publicados três modelos de uma só vez:

MiMo-V2-Pro:total de parâmetros, ativa parâmetros 42B, arquitetura de atenção mista, suporta contexto de milhões, taxa de conclusão de tarefas 81%

MiMo-V2-Omni:cenários de Agent de modalidade total

MiMo-V2-TTS:cenários de síntese de voz

De acordo com o comunicado, o MiMo-V2-Flash que já foi disponibilizado em open source ficou em segundo lugar no ranking global de modelos open source, e a velocidade de inferência atinge 3 vezes a do DeepSeek-V3.2.

Perguntas frequentes

Como é que Luo Fuli define “auto-evolução” e por que razão considera que é o evento mais crucial para a AGI?

Com base no que Luo Fuli afirmou numa entrevista na Bilibili em 24 de abril de 2026 (BV1iVoVBgERD), ela indicou que, atualmente, os modelos de topo já conseguem otimizar-se autonomamente em tarefas específicas e executar de forma estável durante 2 a 3 dias sem necessidade de intervenção humana, e classificou a “auto-evolução” como o evento mais crucial para o desenvolvimento da AGI no próximo ano.

Que ajustes concretos fez a Xiaomi na afetação de capacidade de computação e qual é a lógica por trás?

Com base nas revelações de Luo Fuli na entrevista, a afetação de capacidade de computação da Xiaomi foi ajustada de Pre-train:Post-train:Inference = 3:5:1, utilizada habitualmente na indústria, para 3:1:1, comprimindo de forma acentuada a proporção do treino pós-treino; ela explicou que esta mudança se deve ao facto de, após a maturidade da estratégia de Agent RL Scaling, a eficiência do pós-treino ter aumentado e às necessidades de capacidades de resposta imediata no lado da inferência para os cenários de implementação de Agents.

Qual é o ranking open source e o desempenho de velocidade do MiMo-V2-Flash?

De acordo com o comunicado oficial publicado pela Xiaomi em 19 de março de 2026, o MiMo-V2-Flash disponibilizado em open source ficou em segundo lugar no ranking global de modelos open source, e a velocidade de inferência é 3 vezes a do DeepSeek-V3.2; a taxa de conclusão de tarefas da versão flagship MiMo-V2-Pro é de 81%.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Greg Brockman da OpenAI: A IA a mudar de chat para execução autónoma de tarefas

Mensagem da Gate News, 27 de abril — Greg Brockman, presidente e cofundador da OpenAI, diz que a próxima vaga de inteligência artificial irá levar os utilizadores a passarem de conversar com bots de IA para atribuírem tarefas do mundo real. Esta mudança exige que as empresas repensem os fluxos de trabalho operacionais e estabeleçam novos protocolos para se

GateNews39m atrás

Grande CEX Lança Smart Money Signal Suite com 1.000+ Dados de Traders

Gate News mensagem, 27 de abril — Uma grande exchange centralizada lançou um "Smart Money Signal Suite" que integra posições em tempo real, taxas de acerto e dados de lucro/prejuízo de mais de 1.000 traders populares. O toolkit, acessível através do Agent Trade Kit da plataforma, encapsula sinais de traders como

GateNews50m atrás

A B.AI melhora a infraestrutura e lança grandes funcionalidades de Skills

Notícia da Gate, 27 de abril — A B.AI anunciou esta semana vários avanços de produtos e do ecossistema. A página de destino do BAIclaw recebeu uma reformulação completa a nível visual e de interações, com suporte multilingue do website alargado para 10 idiomas, reforçando a sua usabilidade global. Na área da infraestrutura

GateNews53m atrás

Agentes de IA impulsionam a procura de pagamentos em cripto, o x402 processa 165M transações

Mensagem do Gate News, 27 de abril — Jesse Pollak, um executivo de um grande CEX, defendeu que agentes de IA autónomos estão a criar um novo "centro de procura" para pagamentos em cripto, exigindo uma infraestrutura de pagamentos nativa de software. A 20 de abril, foi anunciado que o ecossistema x402 processou mais de 165

GateNews2h atrás

Agente do Cursor AI falhou! Uma linha de código apagou a base de dados da empresa em 9 segundos, a salvaguarda de segurança tornou-se conversa vazia

O fundador da PocketOS, Jer Crane, indicou que um agente de IA da Cursor executou, por conta própria, operações de manutenção no ambiente de testes, abusando de um Token de API para adicionar/remover domínios personalizados, lançando um comando de eliminação contra a API GraphQL da Railway. Em 9 segundos, os dados e os snapshots na mesma região ficaram completamente destruídos, podendo a recuperação mais recente ser feita apenas até três meses antes. O agente admitiu violar regras de operações irreversíveis, não ter lido a documentação técnica, não ter verificado a segregação do ambiente, entre outras. As vítimas foram clientes do setor de aluguer de automóveis: as reservas e os dados desapareceram por completo, e a reconciliação levou muito tempo. Crane propôs cinco reformas: confirmação manual, permissões de API mais granulares, separação entre backups e dados principais, divulgação de SLA e mecanismos obrigatórios ao nível subjacente.

ChainNewsAbmedia2h atrás

Alibaba lança modelo AgenticQwen em open-source: versão 8B aproxima desempenho de 235B através de dual data flywheels

Mensagem da Gate News, 27 de abril — A equipa PAI da Alibaba lançou e disponibilizou em open-source o AgenticQwen, um modelo de linguagem agentico de pequena escala concebido para aplicações industriais de tool-calling. O modelo existe em duas versões: 8B e 30B-A3B. Treinado através de um inovador framework de aprendizagem por reforço "dual data flywheel"

GateNews2h atrás
Comentar
0/400
Nenhum comentário