2026 está a consolidar-se em 3 apostas realmente grandes onde, se uma falhar, resultará num colapso de curto prazo da bolha
1. centros de dados
anthropic, Xai a escalar agressivamente para 1M de GPUs. ambos planeiam atingir esse objetivo até ao 2º trimestre. os modelos resultantes treinados nesta infraestrutura precisam de confirmar que a lei de escalabilidade de computação ainda é eficaz. caso contrário, indicará que precisamos de explorar uma nova arquitetura de modelo. isto também depende da infraestrutura de energia (power shell) estar a ser escalada, embora isso vá ser um problema para a próxima década, quanto mais para este ano.
2. memória
este ano temos memória suficiente apenas para suportar 15GW de GPUs, enquanto os hyperscalers estão a visar 30-40GW nos próximos 2 anos. estamos a ficar bastante apertados aqui - se a Samsung, $MU ou a SK Hynix falharem na produção, isso irá atrasar a aposta número 1. também, quem garantir a maior parte desta capacidade de memória para criar GPUs, ganha mais dentro da capacidade de produção limitada, e neste momento isso é $NVDA
3. infra mais barata e eficaz
a última GPU da Nvidia, Vera Rubin, é 5X mais performante, mas, mais importante, 4X mais eficiente em termos de computação, o que significa que os custos de inferência despencaram - inteligência de fronteira por uns trocos! haverá uma abundância de computação disponível para treinar, mas mais importante, para usar IA este ano, por isso o paradoxo de Jevons precisa de se provar através do aumento da procura. se isso falhar, então as duas apostas acima colapsarão. na minha opinião, estou menos preocupado com esta - acho que os agentes de harnesses e o RL pós-treinamento continuarão a fortalecer os modelos.
muito otimista
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
2026 está a consolidar-se em 3 apostas realmente grandes onde, se uma falhar, resultará num colapso de curto prazo da bolha
1. centros de dados
anthropic, Xai a escalar agressivamente para 1M de GPUs. ambos planeiam atingir esse objetivo até ao 2º trimestre. os modelos resultantes treinados nesta infraestrutura precisam de confirmar que a lei de escalabilidade de computação ainda é eficaz. caso contrário, indicará que precisamos de explorar uma nova arquitetura de modelo. isto também depende da infraestrutura de energia (power shell) estar a ser escalada, embora isso vá ser um problema para a próxima década, quanto mais para este ano.
2. memória
este ano temos memória suficiente apenas para suportar 15GW de GPUs, enquanto os hyperscalers estão a visar 30-40GW nos próximos 2 anos. estamos a ficar bastante apertados aqui - se a Samsung, $MU ou a SK Hynix falharem na produção, isso irá atrasar a aposta número 1. também, quem garantir a maior parte desta capacidade de memória para criar GPUs, ganha mais dentro da capacidade de produção limitada, e neste momento isso é $NVDA
3. infra mais barata e eficaz
a última GPU da Nvidia, Vera Rubin, é 5X mais performante, mas, mais importante, 4X mais eficiente em termos de computação, o que significa que os custos de inferência despencaram - inteligência de fronteira por uns trocos! haverá uma abundância de computação disponível para treinar, mas mais importante, para usar IA este ano, por isso o paradoxo de Jevons precisa de se provar através do aumento da procura. se isso falhar, então as duas apostas acima colapsarão. na minha opinião, estou menos preocupado com esta - acho que os agentes de harnesses e o RL pós-treinamento continuarão a fortalecer os modelos.
muito otimista