Mensaje de Gate News, 15 de abril — Synapse Software ha integrado TurboQuant, un algoritmo de cuantización vectorial desarrollado por Google Research, en su solución Synap OCR IX para mejorar las capacidades de IA documental y, al mismo tiempo, reducir los costos de adopción de IA empresarial.
TurboQuant comprime la caché KV utilizada por los modelos de lenguaje grandes (LLMs) y los modelos de lenguaje de visión (VLMs), reduciendo el consumo de memoria al procesar documentos largos. Esto permite un procesamiento de datos más rápido en la misma infraestructura de GPU. La tecnología aborda cuellos de botella de memoria que anteriormente exigían una infraestructura de GPU costosa, especialmente para manejar contextos extendidos y el procesamiento por lotes grandes sin degradación del rendimiento.
Synapse Software también admite entornos basados en CPU para empresas que no pueden desplegar infraestructura de GPU. Mediante un perfilado de precisión, la empresa logró un procesamiento de inferencia solo con CPU de aproximadamente 100 documentos por minuto, manteniendo la pérdida de calidad por debajo del 1%, reduciendo el costo total de propiedad (TCO). El enfoque de infraestructura flexible permite la adopción de IA OCR en sectores sensibles a la seguridad, como las finanzas y la administración pública, donde antes el despliegue en instalaciones propias y las limitaciones de infraestructura han dificultado la implementación de IA.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
Hut 8 emite $3B bonos con grado de inversión para financiar un centro de datos de IA vinculado a Google
Mensaje de Gate News, 27 de abril — El minero de Bitcoin Hut 8 Corp está emitiendo bonos asegurados con grado de inversión para financiar la construcción de un centro de datos de 245 megavatios en St. Francisville, Luisiana, en asociación con Alphabet Inc. (Google). Los bonos, con vencimiento en 2042, incluyen una guía inicial de precio de aproximadamente 213 puntos básicos por encima del rendimiento de referencia.
GateNewshace6h
El gran CEX lanza Smart Money Signal Suite con datos de 1.000+ traders
Mensaje de Gate News, 27 de abril — Una gran bolsa centralizada ha lanzado un "Smart Money Signal Suite" que integra participaciones en tiempo real, tasas de acierto y datos de ganancias/pérdidas de más de 1.000 traders populares. El kit, al que se accede a través del Agent Trade Kit de la plataforma, encapsula las señales de los traders como herramientas llamables por Agentes de IA.
GateNewshace11h
La startup de software de robótica Sereact recauda $110M Serie B liderada por Headline
Mensaje de Gate News, 27 de abril — La startup de software de robótica Sereact anunció el 27 de abril que recaudó $110 millones en una ronda de Serie B liderada por Headline para ampliar sus operaciones y desarrollar modelos avanzados de IA para robots industriales.
Bullhound Capital, Felix Capital y Daphni también participaron en la
GateNewshace11h
DeepSeek V4 Pro en Ollama Cloud: Conecta en un solo clic Claude Code
Según los tuits de Ollama, DeepSeek V4 Pro se lanzó el 4/24 y ya se ha incorporado en el directorio de Ollama en modo en la nube; con un solo comando se pueden llamar herramientas como Claude Code, Hermes, OpenClaw, OpenCode, Codex, etc. V4 Pro cuenta con 1,6T de parámetros, 1M de context, Mixture-of-Experts; la inferencia en la nube no descarga los pesos locales. Si lo quieres local, debes obtener los pesos y ejecutarlo con INT4/GGUF y GPUs multi‑tarjeta. Las pruebas de velocidad tempranas se vieron afectadas por la carga del servidor en la nube; en condiciones normales es aproximadamente 30 tok/s, con un pico de 1,1 tok/s. Se recomienda usar el prototipo en la nube; para producción en serie, realiza tu propia inferencia o usa una API comercial.
ChainNewsAbmediahace13h