Tether lançou framework de treinamento de IA para smartphones e GPUs de consumo

A Tether anunciou recentemente uma nova estrutura de treino de IA que permite ajustar modelos de linguagem de grande escala diretamente em dispositivos de consumo, como smartphones e GPUs que não sejam Nvidia. Este sistema, integrado na plataforma QVAC, aproveita a arquitetura BitNet da Microsoft combinada com a técnica LoRA para reduzir significativamente os requisitos de memória e custos computacionais.

Segundo a Tether, o framework suporta múltiplas plataformas, compatível com chips da AMD, Intel, Apple Silicon e GPUs móveis da Qualcomm. Engenheiros podem ajustar modelos com até 1 bilhão de parâmetros em smartphones em menos de duas horas, e até expandir para 13 bilhões de parâmetros em dispositivos móveis.

A tecnologia BitNet reduz até 77,8% do VRAM em comparação com modelos de 16 bits, além de acelerar a inferência em GPUs móveis. A Tether também destaca o potencial de aplicações como aprendizagem federada, reduzindo a dependência da nuvem.

Esta iniciativa reflete a tendência de empresas de criptomoedas expandirem-se para IA e infraestrutura de computação, paralelamente ao desenvolvimento de agentes de IA no setor.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários