Uma brincadeira sobre "treinar IA com dois livros" que ilustra exatamente que o poder de processamento é a chave

robot
Geração de resumo em curso

Este gracejo, ao contrário, desfaz a fantasia do “dado minimalista”

Elon Musk brincou ao dizer que o Grok foi treinado com “apenas estes dois livros”, “feito” — um sarcasmo típico à Musk. Ele está a criticar aquela fantasia de que é possível obter uma IA competitiva sem enorme poder de computação. A realidade é que a xAI está a avançar o treino num enorme cluster de GPUs. Quais são exatamente esses dois livros que ele não disse (e isso, na verdade, é irrelevante), mas a intenção é clara: naquelas áreas em que a Lei de Escala continua a dominar, ele está a troçar de narrativas demasiado simplificadas.

Este tweet provocou reações polarizadas. Alguns tomam-no como um indício de treino eficiente; outros percebem que é mais uma tentativa de desviar atenções — na prática, o que a xAI está a fazer é avançar de forma maciça o reforço de aprendizagem na sua infraestrutura Colossus. As pontuações do Grok (por exemplo, o Grok 3 Think a obter 93,3% no AIME) vêm do poder de computação e do paradigma de treino, não de “ter lido dois livros de capa mole”.

  • Muita gente interpretou mal este gracejo: várias respostas entendem-no como um sinal de uma descoberta na eficiência de dados. Não é isso. A metodologia publicada pela xAI centra-se em expandir as capacidades de raciocínio com RL, e não em comprimir dados de treino.
  • Especialistas sérios não acompanharam: com falta de confirmação por parte de investigadores de topo como Karpathy e LeCun, a expressão “dado minimalista” não conseguiu ganhar tração. Sem validação, uma única publicação não consegue fazer avançar o consenso na indústria.
  • Os testes de referência esclarecem melhor o quadro: o Grok lidera no GPQA (84,6%) e no LiveCodeBench (79,4%); isto remete para as vantagens de eficiência trazidas pela infraestrutura — uma melhoria de eficiência de cerca de 6x significa melhor implantação de FLOPs, não “ter lido menos livros”.

Ganhar com poder de computação; “dados minimalistas” não se sustenta

A disseminação deste tweet expõe o desfasamento entre slogans “fáceis de viralizar” (“só dois livros!”) e o “motor real” para construir modelos fortes (treino massivo em superclusters). À medida que a comunidade encara com mais atenção a conformidade dos dados de treino e o risco de fugas — por exemplo, o registo mais recente da Stanford sobre o fenómeno de modelos reescreverem romances protegidos por direitos — isso torna-se ainda mais crítico.

A xAI está a posicionar o Grok 4 como o nível mais forte de inferência do tipo agente ao aplicar RL à escala de treino na pré-formação. Diferente de abordagens mais cautelosas da OpenAI e da Anthropic, a xAI, por um lado, brinca com “eficiência” e, por outro, entrega ferramentas multimodais. Interpretar este tweet como “open source” ou “revolução da eficiência” é, em grande parte, uma expetativa emocional — os 6 mil milhões de dólares (C-round) da xAI são maioritariamente destinados à infraestrutura, e não a “simplificar um dataset” ao extremo.

Isto também gera uma desconexão entre pricing e narrativa. Se o mercado se fixar demasiado na eficiência de custos, pode ignorar o peso maior das barreiras de poder de computação. A xAI tem uma vantagem relativa na infraestrutura; e empresas como a Meta, se não conseguirem obter uma escala equivalente de RL e poder de computação para treino, podem ficar para trás na profundidade da inferência.

Campo O que viram Impacto no entendimento da indústria Avaliação
Aficionados do minimalismo Tomaram o gracejo dos “2 livros” como endosso do treino eficiente Aumentou as expetativas dos programadores independentes de que “a Lei de Escala pode ser contornada” Exagerado — ignora as restrições difíceis impostas pelo limiar de poder de computação a equipas com poucos recursos
Pragmatistas da escala Focaram-se no cluster Colossus da xAI e na rota de RL do Grok 3/4 Reforçou o consenso de que “FLOPs vencem truques de dados”; clientes empresariais preferem fornecedores de alta capacidade computacional Mais próximo da realidade — a vantagem do lado empresarial da xAI foi subestimada pelo mercado
Cautelosos Repararam na falta de endosso de especialistas e que não está fortemente relacionado com benchmarks como ARC-AGI-2 (Grok 4 com 15,9%) Evita ajustar erradamente as premissas de investimento devido a mudanças de narrativa Razoável contenção — o risco de bolhas de financiamento impulsionadas por narrativa é mais alto
Analistas de concorrentes Compararam a integração do toolchain da Grok API e os problemas de alucinação da concorrência (melhorado na versão 4.1) Acelera a identificação da guerra de posicionamento; as pressões multimodais como voz/vídeo da xAI repercutem nos concorrentes A xAI está a abrir distância; a Anthropic pode estar limitada no ritmo de expansão do RL

Conclusão: O verdadeiro fator que este gracejo encobre é a liderança da xAI em poder de computação. Quem já não avançou para uma mudança em direção a RL escalável está atrasado; os investidores que apostam em poder de computação e em barreiras de infraestrutura encontram-se numa fase inicial; compradores empresariais que agora adotam ferramentas do Grok baseadas em agentes terão mais vantagem do que os adversários que continuam fiéis ao “mito dos dados minimalistas”.

Importância: Média
Categoria: Insights técnicos, tendências da indústria, impacto no mercado

Julgamento: No momento em que esta narrativa entra, é uma “vantagem inicial” para os financiadores e compradores empresariais que apostam em poder de computação e em infraestrutura de RL, e já é “tarde demais” para os construtores que ainda insistem em rotas de dados minimalistas. Quem beneficia mais, de forma prática, são os intervenientes que controlam ou integram clusters massivos de GPUs e stacks de engenharia de RL: construtores de infraestrutura e fundos de médio e longo prazo tendem a ser os que mais beneficiam, e os compradores empresariais dispostos a implementar cedo a toolchain de agentes do Grok também ficam em vantagem; para traders de curto prazo, a vantagem marginal é limitada, salvo exista um catalisador claro de fornecimento de poder de computação.

GROK-3,16%
XAI0,73%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar