Gate News-сообщение, 27 апреля — команда MiMo компании Xiaomi открыла исходный код серии больших языковых моделей MiMo-V2.5 под лицензией MIT, поддерживая коммерческое развертывание, продолженное обучение и донастройку. Обе модели имеют контекстное окно на 1 миллион токенов. MiMo-V2.5-Pro — это модель Mixture-of-Experts по чистому тексту (MoE) с общим числом параметров 1,02 триллиона и 42 миллиардами активных параметров, в то время как MiMo-V2.5 — это нативная мультимодальная модель с общим числом параметров 310 миллиардов и 15 миллиардами активных параметров, поддерживающая понимание текста, изображений, видео и аудио.
MiMo-V2.5-Pro ориентирована на сложные задачи для агентов и программирование. В бенчмарках ClawEval она достигла 64% Pass@3 при потреблении примерно 70 000 токенов на траекторию задачи — на 40%–60% меньше токенов, чем Claude Opus, Gemini 3.1 Pro и GPT-5.4. Модель получила 78,9 балла на SWE-bench Verified. В демонстрации V2.5-Pro самостоятельно реализовала полностью компилятор SysY-to-RISC-V для проекта курса компиляции в Пекинском университете за 4,3 часа, используя 672 обращения к инструментам, добившись идеального результата 233/233 на скрытых тестовых наборах.
MiMo-V2.5 предназначена для сценариев работы мультимодальных агентов и оснащена специализированным vision-энкодером (729 million parameters) и аудио-энкодером (261 million parameters), набирая 62,3 балла на общей подвыборке Claw-Eval. Обе модели используют гибридную архитектуру, сочетающую attention с скользящим окном (SWA) и глобальным attention (GA), дополняемую модулем 3-слойного многотокенного предсказания (MTP) для ускоренного вывода. Веса модели доступны на Hugging Face.
Помимо релиза с открытым исходным кодом, команда MiMo запустила программу поощрения «Orbit Quadrillion Token Creator Incentive Program», предлагая 100 квадриллионов токенов бесплатно в течение 30 дней глобальным пользователям. Отдельные разработчики, команды и предприятия могут подать заявку через страницу программы, при этом цикл оценки составляет примерно 3 рабочих дня; одобренные выгоды распределяются как Token Plans или прямые зачисления, совместимые с такими инструментами, как Claude Code и Cursor.
Связанные статьи
Мета-резервы: 1 ГВт+ солнечной энергии и накопителей для ЦОДов ИИ
Zhipu Z.ai продлевает акцию с тройным лимитом GLM Coding Plan до 30 июня
TSMC ускоряет расширение вдвое быстрее: запуск пяти фабрик по 2 нм для наращивания производства в 2026 году
GitHub Copilot переходит на биллинг на основе токенов с 1 июня, ежемесячные платежи без изменений
Китайские регуляторы блокируют приобретение Manus Meta на $2 миллиардов