Сообщение Gate News, 15 апреля — Synapse Software интегрировала TurboQuant, алгоритм векторного квантования, разработанный Google Research, в свое решение Synap OCR IX, чтобы улучшить возможности документального ИИ и при этом снизить затраты на внедрение корпоративного ИИ.
TurboQuant сжимает KV-кэш, используемый большими языковыми моделями (LLMs) и моделями зрения-языка (VLMs), уменьшая потребление памяти при обработке длинных документов. Это позволяет выполнять более быструю обработку данных на той же инфраструктуре GPU. Технология устраняет узкие места по памяти, которые ранее требовали дорогой инфраструктуры GPU, особенно при работе с расширенными контекстами и крупными пакетами без снижения производительности.
Synapse Software также поддерживает среды на базе CPU для предприятий, которые не могут развернуть инфраструктуру GPU. Благодаря точному профилированию компания добилась CPU-only вывода, обрабатывая примерно 100 документов в минуту при потере качества ниже 1%, снижая общую стоимость владения (TCO). Гибкий подход к инфраструктуре позволяет внедрять AI OCR в секторах, чувствительных к безопасности, таких как финансы и государственное управление, где ранее развертывание on-premises и ограничения инфраструктуры препятствовали внедрению ИИ.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
Hut 8 выпускает $3B облигации инвестиционного уровня для финансирования AI-дата-центра, связанного с Google
Сообщение Gate News, 27 апреля — Биткоин-майнер Hut 8 Corp выпускает обеспеченные облигации инвестиционного уровня для финансирования строительства дата-центра мощностью 245 мегаватт в Сент-Франсисвилле, штат Луизиана, в партнерстве с Alphabet Inc. (Google). Облигации, погашаемые в 2042 году, имеют первоначальное ценовое ориентирование примерно на 213 базисных пунктов выше эталонной доходности.
GateNews6ч назад
Крупный запуск CEX: Smart Money Signal Suite с данными 1 000+ трейдеров
Сообщение Gate News, 27 апреля — Крупная централизованная биржа запустила «Smart Money Signal Suite» (комплект сигналов умных денег), который объединяет данные о текущих активах, процентах побед и прибыли/убытках более чем 1 000 популярных трейдеров в режиме реального времени. Комплект, доступный через Agent Trade Kit платформы, инкапсулирует сигналы трейдеров как инструменты, вызываемые ИИ-агентом.
GateNews11ч назад
Стартup по разработке ПО для робототехники Sereact привлекла $110M в раунде серии B под руководством Headline
Сообщение Gate News, 27 апреля — Стартup по разработке ПО для робототехники Sereact объявила 27 апреля, что привлекла $110 миллион в раунде серии B под руководством Headline, чтобы расширить деятельность и разработать передовые модели ИИ для промышленных роботов.
В раунде также участвовали Bullhound Capital, Felix Capital и Daphni.
GateNews11ч назад
DeepSeek V4 Pro в Ollama Cloud: однокнопочное подключение Claude Code
Согласно твитам Ollama, DeepSeek V4 Pro вышла 4/24, и уже размещена в каталоге Ollama в облачном режиме; одной строкой команды можно вызывать такие инструменты, как Claude Code, Hermes, OpenClaw, OpenCode, Codex и т. д. Версия V4 Pro1.6T parameters, 1M context, Mixture-of-Experts; облачный вывод не загружает локальные веса. Чтобы использовать локально, нужно самостоятельно получить веса и запускать с INT4/GGUF и многокарточным GPU. Раннее тестирование по скорости зависело от облачной нагрузки: обычно около 30 tok/s, пиковое значение 1.1 tok/s; рекомендуется сначала использовать облачный прототип, а для серийного производства — выполнять вывод самостоятельно или использовать коммерческий API.
ChainNewsAbmedia13ч назад