Message de Gate News, le 27 avril — L’équipe MiMo de Xiaomi a publié en open source la série de modèles de langage MiMo-V2.5 sous licence MIT, prenant en charge le déploiement commercial, l’entraînement continu et l’affinage. Les deux modèles présentent une fenêtre de contexte de 1 million de jetons. MiMo-V2.5-Pro est un modèle mélange d’experts pure-texte (MoE) avec 1,02 trillion de paramètres au total et 42 milliards de paramètres actifs, tandis que MiMo-V2.5 est un modèle natif multimodal avec 310 milliards de paramètres au total et 15 milliards de paramètres actifs, prenant en charge la compréhension du texte, de l’image, de la vidéo et de l’audio.
MiMo-V2.5-Pro vise des tâches d’agents complexes et de programmation. Sur les benchmarks ClawEval, il a obtenu 64% de Pass@3 tout en consommant environ 70 000 jetons par trajectoire de tâche — 40% à 60% de jetons en moins que Claude Opus, Gemini 3.1 Pro et GPT-5.4. Le modèle a obtenu 78,9 sur SWE-bench Verified. Lors d’une démonstration, V2.5-Pro a implémenté indépendamment un compilateur complet SysY-to-RISC-V pour un projet de cours du compilateur de l’Université de Pékin en 4,3 heures avec 672 appels d’outils, atteignant un score parfait de 233/233 sur des jeux de tests cachés.
MiMo-V2.5 est conçu pour des scénarios d’agents multimodaux, doté d’un encodeur visuel dédié (729 millions de paramètres) et d’un encodeur audio (261 millions de paramètres), obtenant 62,3 sur le sous-ensemble général Claw-Eval. Les deux modèles emploient une architecture hybride combinant l’attention à fenêtre glissante (SWA) et l’attention globale (GA), associée à un module de prédiction multi-jetons à 3 couches (MTP) pour une inférence accélérée. Les poids du modèle sont disponibles sur Hugging Face.
En plus de la publication open source, l’équipe MiMo a lancé le « Orbit Quadrillion Token Creator Incentive Program », offrant 100 quadrillions de jetons gratuitement sur 30 jours aux utilisateurs du monde entier. Les développeurs individuels, les équipes et les entreprises peuvent postuler via la page du programme, avec un cycle d’évaluation d’environ 3 jours ouvrés ; les avantages approuvés sont distribués sous forme de Token Plans ou de crédits directs, compatibles avec des outils comme Claude Code et Cursor.
Articles similaires
Réserves Meta : 1 GW+ de solaire et de stockage d’énergie pour les centres de données IA
Zhipu Z.ai prolonge la promotion « triple quota » du GLM Coding Plan jusqu’au 30 juin
TSMC accélère son expansion à un rythme deux fois plus rapide : cinq usines 2 nm pour lancer la production en 2026
Copilot de GitHub passe à la facturation basée sur des jetons à partir du 1er juin, frais mensuels inchangés
Les régulateurs chinois bloquent l’acquisition de Manus par Meta, pour $2 Billion