Mensagem do Gate News, 22 de Abril — A Google Cloud anunciou a disponibilização dos seus chips TPU (Tensor Processing Unit) personalizados de oitava geração, a 22 de Abril. A nova gama inclui o TPU 8t, concebido especificamente para tarefas de treino de IA, e o TPU 8i, optimizado para cargas de trabalho de inferência de IA. Ambos os chips ficarão disponíveis mais tarde este ano. A Google também revelou novas ferramentas para criar agentes de IA e anunciou um fundo de $750 milhões para impulsionar a adopção de IA nas empresas.
O TPU 8t oferece 2,8 vezes o desempenho do TPU Ironwood da geração anterior da Google, no mesmo patamar de preço. O TPU 8i melhora o desempenho em 80% face ao seu antecessor e incorpora uma arquitectura de memória estática de acesso aleatório (SRAM) para proporcionar “transferência em grande escala com custo-efectivo e baixa latência, permitindo que milhões de agentes corram em simultâneo”, segundo o CEO Sundar Pichai. Em comparação com o Ironwood, tanto o TPU 8t como o TPU 8i atingem uma eficiência superior a dobrar por watt, com o TPU 8t a melhorar 124% e o TPU 8i a melhorar 117%. A Google optimizou a eficiência energética em toda a pilha tecnológica e integrou sistemas de gestão de potência dinâmica que ajustam o consumo com base na procura em tempo real.
Os modelos de primeira parte da Google processam agora mais de 160 mil milhões de tokens por minuto através de chamadas directas de API dos clientes, acima dos 100 mil milhões no trimestre passado. A IA passa agora a gerar 75% de todo o novo código na Google, em comparação com 50% no outono do ano passado. O Gemini Enterprise, a oferta empresarial da Google, cresceu 40% em cadeia, no trimestre, em utilizadores mensais activos pagantes. A empresa espera investir ligeiramente mais de metade do seu orçamento de computação de aprendizagem automática em serviços na nuvem até 2026, para servir melhor clientes e parceiros na nuvem. A Google está também a alargar a sua colaboração com a Broadcom para desenvolver e fornecer chips TPU personalizados para futuras gerações, à medida que grandes empresas tecnológicas procuram alternativas às GPUs caras e com fornecimento limitado da NVIDIA e da AMD.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
OpenClaw, Hermes e SillyTavern Confirmados com Suporte no GLM Coding Plan
O gestor de produto da Zhipu AI, Li, anuncia OpenClaw, Hermes e SillyTavern como projectos do GLM Coding Plan com suporte; outras ferramentas serão avaliadas caso a caso. Não partilhe credenciais nem utilize subscrições como acesso à API; contacte o suporte para o erro 1313.
O gestor de produto da Zhipu AI, Li, anunciou que OpenClaw, Hermes e SillyTavern são oficialmente suportados no âmbito do GLM Coding Plan, com outras ferramentas a serem avaliadas caso a caso. A nota alerta para não partilhar credenciais nem usar subscrições como acesso à API e orienta os utilizadores que se deparem com o erro 1313 a contactar o suporte.
GateNews1h atrás
CEO da Google Cloud: Gemini vai impulsionar o lançamento da Siri personalizada da Apple em 2026
Resumo: A Gemini irá impulsionar uma Siri personalizada da Apple em 2026, construída com os Modelos de Base da Apple e colaboração com a Gemini; a Apple está a testar uma Siri com aspeto de chat no iOS 27/macOS 27, prevista para a WWDC 2026.
Resumo: A Gemini da Google Cloud está preparada para impulsionar uma Siri personalizada da Apple até 2026, combinando a Gemini com os Modelos de Base da Apple no âmbito de uma colaboração de aproximadamente $1 mil milhões. A Apple está a testar uma Siri redesenhada e com aspeto de chat no iOS 27/macOS 27, com uma interface de Dynamic Island e novas funcionalidades, antes de um anúncio na WWDC 2026 a 8 de junho.
GateNews1h atrás
O Acordo SpaceX $60B Cursor Impulsiona o Apelo de SBF ao Perdão, à Medida que a $200K Participação da FTX Agora Vale $3B
Mensagem de Notícias do Gate, 22 de abril — A SpaceX anunciou hoje uma grande parceria com a startup de codificação com IA Cursor, com uma opção para adquirir a empresa por $60 mil milhões. O acordo deu novo combustível a Sam Bankman-Fried (SBF), que de momento está encarcerado e faz campanha por um perdão presidencial, já que demonstra o potencial de recuperação de valor que ele tem defendido há muito tempo que a FTX poderia ter alcançado.
Em abril de 2022, a Alameda Research, a empresa de trading fundada por SBF, investiu $200,000 na empresa-mãe da Cursor, a Anysphere, adquirindo aproximadamente 5% de participação. Quando a FTX colapsou em novembro de 2022, o tribunal de falências assumiu o controlo da empresa. Em abril de 2023, o património de falência da FTX vendeu essa mesma participação de 5% por $200,000 — o montante idêntico que a Alameda tinha investido. Com base na avaliação mil milhões anunciada hoje pela SpaceX, essa participação de 5% valeria agora aproximadamente mil milhões, representando um retorno de 15,000x.
SBF tem defendido há muito tempo que a FTX não estava verdadeiramente insolvente e que os advogados da falência destruíram valor ao liquidar ativos prematuramente. Em fevereiro de 2026, partilhou projeções sugerindo que a FTX poderia ter atingido um valor líquido de ativos de mil milhões após a recuperação de ativos. Os seus pais têm também estado ativos na procura de um perdão, aparecendo na CNN em março para argumentar que os clientes da FTX receberam reembolsos integrais. No entanto, os credores assinalaram que os reembolsos se basearam em valorizações de 2022, e não em preços actuais de mercado. O Presidente Trump afirmou que não irá perdoar SBF, e os mercados de previsão actualmente estimam a probabilidade de um perdão em 2026 em apenas 5%.
GateNews1h atrás
Acções da Chegg despenham 99% à medida que a IA perturba o mercado de tecnologia educacional
Resumo: A Chegg disparou durante a procura por educação online, depois as ferramentas de IA perturbaram o seu modelo, levando a despedimentos massivos e a uma queda abaixo de $2, com mudanças mais amplas impulsionadas por IA a atingirem também os mineradores de cripto e as empresas de fintech.
Resumo expandido: Este artigo analisa a ascensão da Chegg como a queridinha do edtech na era da pandemia e a sua subsequente queda face à rápida adoção da IA generativa, que fornece respostas rápidas e enfraquece a proposta de valor da Chegg. Descreve os despedimentos de 2025 e a queda das ações rumo ao cancelamento de cotação, e enquadra a experiência da Chegg num contexto mais amplo de disrupção por IA que está a remodelar a tecnologia e a cripto: os mineradores de Bitcoin fazem a transição para operações de IA, e as estratégias nativas de IA redefinem a competitividade em fintech e além.
CryptoFrontier1h atrás
A OpenAI lança um modelo de Filtro de Privacidade open-source para deteção e redação de PII
Resumo: O Filtro de Privacidade da OpenAI é um modelo open-source, executável localmente, que detecta e redige PII em texto. Suporta contextos grandes, identifica muitas categorias de PII e destina-se a fluxos de trabalho de preservação da privacidade, como preparação de dados, indexação, registo (logging) e moderação.
O Filtro de Privacidade da OpenAI é um modelo open-source executado localmente (128k-token context) que detecta e redige PII em texto, cobrindo dados de contacto, financeiros e de credenciais para fluxos de trabalho de privacidade.
GateNews2h atrás
A OpenAI planeia implementar 30GW de capacidade de computação até 2030
A OpenAI pretende atingir 30GW de capacidade de computação até 2030 para fazer face ao aumento das necessidades de IA, tendo já concluído 8GW de uma meta de 10GW para 2025. A expansão sinaliza uma estratégia para ampliar a infra-estrutura para o desenvolvimento e a implementação de IA de próxima geração.
A OpenAI pretende chegar a 30GW de capacidade de computação até 2030 para acomodar a crescente procura por IA, tendo já concluído 8GW de uma meta de 10GW para 2025. A medida reflecte uma expansão estratégica da infra-estrutura para apoiar o desenvolvimento e a implementação de IA de próxima geração.
GateNews2h atrás