Mensagem de Gate News, 15 de Abril — A Synapse Software integrou o TurboQuant, um algoritmo de quantização vetorial desenvolvido pela Google Research, na sua solução Synap OCR IX para melhorar as capacidades de IA para documentos, ao mesmo tempo que reduz os custos de adoção de IA pelas empresas.
O TurboQuant comprime a cache KV utilizada por (LLMs) e por (VLMs), modelos de linguagem de visão, reduzindo o consumo de memória ao processar documentos longos. Isto permite um processamento de dados mais rápido na mesma infraestrutura de GPU. A tecnologia aborda estrangulamentos de memória que anteriormente exigiam uma infraestrutura de GPU dispendiosa, especialmente no tratamento de contextos alargados e de processamento em grandes lotes sem degradação de desempenho.
A Synapse Software também suporta ambientes baseados em CPU para empresas que não conseguem implementar uma infraestrutura de GPU. Através de uma monitorização de precisão, a empresa obteve um processamento de inferência apenas com CPU de cerca de 100 documentos por minuto, mantendo a perda de qualidade abaixo de 1%, reduzindo o custo total de propriedade (TCO). A abordagem flexível de infraestrutura permite a adoção de IA para OCR em setores sensíveis à segurança, como finanças e administração pública, onde anteriormente a implementação no local e as limitações de infraestrutura dificultavam a aplicação de IA.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
Hut 8 emite $3B obrigações com classificação de investimento para financiar um centro de dados de IA ligado à Google
Mensagem de Gate News, 27 de Abril — O mineiro de Bitcoin Hut 8 Corp está a emitir obrigações garantidas com classificação de investimento para financiar a construção de um centro de dados de 245 megawatts em St. Francisville, Louisiana, em parceria com a Alphabet Inc. (Google). As obrigações, com vencimento em 2042, trazem uma orientação inicial de preço de aproximadamente 213 pontos-base acima da taxa de referência.
GateNews6h atrás
Grande CEX Lança Smart Money Signal Suite com 1.000+ Dados de Traders
Gate News mensagem, 27 de abril — Uma grande exchange centralizada lançou um "Smart Money Signal Suite" que integra posições em tempo real, taxas de acerto e dados de lucro/prejuízo de mais de 1.000 traders populares. O toolkit, acessível através do Agent Trade Kit da plataforma, encapsula sinais de traders como
GateNews11h atrás
Startup de Software de Robótica Sereact Angaria $110M Série B Liderada pela Headline
Notícia da Gate, 27 de Abril — A startup de software de robótica Sereact anunciou a 27 de Abril que angariou $110 milhões numa ronda da Série B liderada pela Headline, para expandir as operações e desenvolver avançados modelos de IA para robôs industriais.
A Bullhound Capital, a Felix Capital e a Daphni também participaram no
GateNews11h atrás
DeepSeek V4 Pro no Ollama Cloud: ligação num só clique do Claude Code
De acordo com os tweets da Ollama, o DeepSeek V4 Pro foi lançado em 24/4, já foi adicionado no diretório da Ollama em modo de cloud e, com um único comando, pode chamar ferramentas como Claude Code, Hermes, OpenClaw, OpenCode, Codex, etc. V4 Pro 1.6T params, 1M context, Mixture-of-Experts; a inferência em cloud não descarrega pesos para a máquina local. Para executar localmente, é necessário obter os pesos e correr com INT4/GGUF e GPUs multi-cartão. Os testes de velocidade iniciais foram influenciados pela carga do serviço em cloud, com um valor típico de ~30 tok/s e um pico de 1.1 tok/s; recomenda-se usar o protótipo em cloud e, para produção em larga escala, fazer inferência local ou usar uma API comercial.
ChainNewsAbmedia13h atrás