Mensaje de Gate News, 27 de abril — El equipo MiMo de Xiaomi ha publicado como código abierto la serie de modelos de lenguaje de gran tamaño MiMo-V2.5 bajo licencia MIT, respaldando el despliegue comercial, el entrenamiento continuo y el ajuste fino. Ambos modelos cuentan con una ventana de contexto de 1 millón de tokens. MiMo-V2.5-Pro es una mezcla de expertos de solo texto (MoE) con 1,02 billones de parámetros totales y 42 mil millones de parámetros activos, mientras que MiMo-V2.5 es un modelo multimodal nativo con 310 mil millones de parámetros totales y 15 mil millones de parámetros activos, respaldando la comprensión de texto, imagen, video y audio.
MiMo-V2.5-Pro se enfoca en tareas complejas de agentes y programación. En los benchmarks ClawEval, logró un 64% Pass@3 consumiendo aproximadamente 70.000 tokens por trayectoria de tarea—40% a 60% menos tokens que Claude Opus, Gemini 3.1 Pro y GPT-5.4. El modelo obtuvo 78,9 en SWE-bench Verified. En una demostración, V2.5-Pro implementó de forma independiente un compilador completo de SysY a RISC-V para un proyecto de curso de compiladores de la Universidad de Pekín en 4,3 horas con 672 llamadas a herramientas, logrando una puntuación perfecta de 233/233 en conjuntos de pruebas ocultos.
MiMo-V2.5 está diseñado para escenarios de agentes multimodales, equipado con un codificador de visión dedicado (729 millones de parámetros) y un codificador de audio (261 millones de parámetros), con una puntuación de 62,3 en el subconjunto general Claw-Eval. Ambos modelos emplean una arquitectura híbrida que combina atención con ventana deslizante (SWA) y atención global (GA), junto con un módulo de predicción multi-token de 3 capas (MTP) para una inferencia acelerada. Los pesos del modelo están disponibles en Hugging Face.
Junto con el lanzamiento de código abierto, el equipo MiMo lanzó el “Programa de Incentivos para el Creador de Cuatrillón de Órbitas de Tokens,” ofreciendo 100 cuatrillones de tokens gratis durante 30 días para usuarios globales. Los desarrolladores individuales, equipos y empresas pueden postularse a través de la página del programa con un ciclo de evaluación de aproximadamente 3 días hábiles; las ventajas aprobadas se distribuyen como Token Plans o créditos directos, compatibles con herramientas como Claude Code y Cursor.
Artículos relacionados
Reservas de Meta de 1GW+ de energía solar y almacenamiento de energía para centros de datos de IA
Zhipu Z.ai amplía la promoción triple cuota del GLM Coding Plan hasta el 30 de junio
TSMC acelera la expansión al doble de ritmo; cinco fábricas de 2 nm para aumentar la producción en 2026
GitHub Copilot cambia a facturación basada en tokens a partir del 1 de junio; las tarifas mensuales permanecen sin cambios
Los reguladores chinos bloquean la adquisición de Manus por $2 Billion de Meta