Depois de codificar com MiMo vibe um fim de semana...

robot
Geração do resumo em andamento

Assim que o MiMo foi lançado, eu usei o crédito gratuito do OpenCode para fazer uma tentativa, criando um pequeno projeto. O projeto em si não era difícil, mas o MiMo travou por muito tempo e não deu feedback de erro claro, o que me deixou com uma má impressão do MiMo na época.

No entanto, na sexta-feira à noite, vi alguém dizer que o método de cobrança por token no site oficial do MiMo funciona muito melhor do que o crédito gratuito do OpenCode, então recarreguei 200 yuan e continuei o meu projeto original, além de fazer duas tarefas de limpeza de dados um pouco mais complexas.

Minha impressão é que ele realmente é muito mais forte do que todos os modelos nacionais que usam o Coding Plan.

Isso não se reflete necessariamente na taxa de sucesso de execução única, mas sim na sensação de que, quando eu usava o Coding Plan, tinha uma impressão de que os fabricantes de grandes modelos nacionais limitavam as chamadas ao Agent: talvez limitassem o comprimento da cadeia de pensamento ou o número de rodadas de execução do Agent, fazendo com que esses Agents tendessem a terminar a tarefa entre 50% e 60%. Para casos extremos ou bugs complexos, eles simplesmente parecem não perceber.
Com o MiMo, acho que esse problema melhora bastante. Ele consegue executar por várias horas de forma sólida, justamente para resolver bugs muito difíceis. A lógica é fácil de entender: no Coding Plan, quanto mais chamadas, maior o custo; já na cobrança por token, quanto mais chamadas, maior a receita.

Na minha experiência prática, embora tenha gasto 200 yuan, consegui resolver três tarefas que me incomodavam há bastante tempo. Acho que valeu bastante a pena. Mesmo comprando dados prontos na internet, certamente não gastaria menos de 200 yuan.

Porém, essa experiência me fez pensar em um ponto contraditório dos modelos nacionais:
Modelos como o Claude já podem substituir uma grande parte do trabalho, e as empresas nacionais de modelos também têm capacidade para atingir cerca de 80% a 90% do desempenho do Claude; mas, se continuarmos promovendo usando o método do Coding Plan, a experiência de uso ainda será muito inferior. Para tarefas um pouco mais complexas ou difíceis, eles simplesmente não conseguem lidar, não por falta de capacidade do modelo, mas por limitações impostas pelos fabricantes, que acabam afetando a popularização e o uso do Agent.

Acredito que esse problema se deve principalmente às limitações de poder de processamento e ao hábito de precificação de serviços domésticos. Não sei qual é a opinião de vocês sobre isso.
Minha ideia é que, nos próximos 3 a 5 anos, a demanda por poder de processamento continuará grande, mas a questão é se isso beneficiará empresas como a Nvidia ou se realmente ajudará a impulsionar a atualização dos chips nacionais.

(Recentemente, também disseram que o DeepSeek V4 está atrasado por causa da necessidade de adaptar-se aos chips nacionais, o que dificultou a convergência do treinamento…)

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar