Message Gate News, 15 avril — Synapse Software a intégré TurboQuant, un algorithme de quantification vectorielle développé par Google Research, dans sa solution Synap OCR IX afin d’améliorer les capacités d’IA documentaire tout en réduisant les coûts d’adoption de l’IA en entreprise.
TurboQuant compresse le cache KV utilisé par les grands modèles de langage (LLMs) et les modèles de langage vision (VLMs), réduisant la consommation mémoire lors du traitement de documents longs. Cela permet un traitement des données plus rapide sur la même infrastructure GPU. La technologie répond aux goulots d’étranglement de mémoire qui nécessitaient auparavant une infrastructure GPU coûteuse, en particulier pour gérer des contextes étendus et des traitements par lots volumineux sans dégradation des performances.
Synapse Software prend également en charge des environnements basés sur le CPU pour les entreprises qui ne peuvent pas déployer d’infrastructure GPU. Grâce à un profilage de précision, l’entreprise a atteint un traitement d’inférence uniquement sur CPU d’environ 100 documents par minute, avec une perte de qualité maintenue en dessous de 1%, ce qui réduit le coût total de possession (TCO). Cette approche d’infrastructure flexible permet l’adoption de l’OCR par IA dans des secteurs sensibles à la sécurité tels que la finance et l’administration publique, où le déploiement sur site et les contraintes d’infrastructure ont auparavant freiné la mise en œuvre de l’IA.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Hut 8 émet des obligations $3B de qualité investissement pour financer un centre de données d’IA lié à Google
Message de Gate News, 27 avril — Le mineur de Bitcoin Hut 8 Corp émet des obligations sécurisées de qualité investissement pour financer la construction d’un centre de données de 1928374656574839.25Tégawatts à St. Francisville, en Louisiane, en partenariat avec Alphabet Inc. (Google). Les obligations, arrivant à échéance en 2042, comportent une indication de prix initiale d’environ 213 points de base au-dessus du rendement de référence.
GateNewsIl y a 6h
Une grande CEX lance la Smart Money Signal Suite avec 1 000+ données de traders
Message d’actualités Gate, 27 avril — Une grande bourse centralisée a lancé une « Smart Money Signal Suite » qui intègre des données en temps réel sur les positions, les taux de réussite et les profits/pertes provenant de plus de 1 000 traders populaires. La boîte à outils, accessible via le Agent Trade Kit de la plateforme, encapsule les signaux de traders comme des outils appelables par des agents IA.
GateNewsIl y a 11h
La startup de logiciels de robotique Sereact lève $110M millions de Série B, menée par Headline
Message de Gate News, 27 avril — Le jeune pousse de logiciels de robotique Sereact a annoncé le 27 avril qu’elle avait levé $110 million dans le cadre d’un tour de Série B mené par Headline afin d’étendre ses activités et de développer des modèles d’IA avancés pour les robots industriels.
Bullhound Capital, Felix Capital et Daphni ont également participé à
GateNewsIl y a 11h
DeepSeek V4 Pro sur Ollama Cloud : connectez Claude Code en un clic
Selon les tweets d’Ollama, DeepSeek V4 Pro a été publié le 24/04, et est désormais intégré au répertoire d’Ollama en mode cloud. Une seule commande suffit pour appeler des outils tels que Claude Code, Hermes, OpenClaw, OpenCode, Codex, etc. V4 Pro : 1,6T paramètres, 1M context, Mixture-of-Experts ; l’inférence via le cloud ne télécharge pas les poids sur votre appareil local. Pour l’utiliser localement, il faut récupérer les poids et les exécuter avec INT4/GGUF et plusieurs GPU. Les tests de vitesse initiaux ont été influencés par la charge du cloud : le débit normal est d’environ 30 tok/s, le pic à 1,1 tok/s. Il est recommandé de l’utiliser d’abord via le prototype cloud ; pour la production en série, effectuez ensuite votre propre inférence ou utilisez une API commerciale.
ChainNewsAbmediaIl y a 13h