Responsable du modèle IA de Xiaomi : la concurrence en IA passe à l’ère des agents, l’auto-évolution est un événement clé vers l’AGI

AI自進化

Le responsable de l’équipe des grands modèles de Xiaomi, Luo Fuli, a accordé une interview approfondie sur la plateforme Bilibili le 24 avril (numéro de la vidéo : BV1iVoVBgERD). La durée de l’interview est de 3,5 heures ; c’est la première fois qu’elle expose publiquement, en tant que responsable technique, ses points de vue techniques de manière systématique. Luo Fuli a déclaré que la compétition autour des grands modèles est passée de l’ère Chat à l’ère Agent, et a indiqué que « l’auto-évolution » serait l’événement clé pour l’AGI au cours de la prochaine année.

De l’ère Chat à l’ère Agent : jugements techniques clés

小米大模型團隊負責人羅福莉訪談

(Source : Bilibili)

D’après les propos de Luo Fuli dans l’interview sur Bilibili, elle indique que, en 2026, le centre de gravité de la compétition des grands modèles se déplacera de la qualité de conversation générale vers la capacité d’exécution autonome continue sur des tâches complexes. Pendant l’interview, elle a déclaré que, pour l’instant, les modèles de premier plan peuvent s’optimiser de façon autonome sur des tâches spécifiques, et exécuter de manière stable pendant 2 à 3 jours sans nécessiter d’intervention humaine pour des ajustements. Elle a souligné, pendant l’interview, que la percée de la capacité « d’auto-évolution » signifie que les systèmes d’IA commencent à disposer d’une capacité d’autoréparation, et a également cité les trajectoires techniques d’Anthropic ainsi que des variables techniques comme Claude Opus 4.6, et leur impact sur l’ensemble de l’écosystème de l’IA.

Ajustement du mix de puissance de calcul de Xiaomi et évaluation de l’écart de génération de Pre-train

D’après les révélations de Luo Fuli dans l’interview, Xiaomi a déjà effectué d’importants ajustements dans sa stratégie de répartition de la puissance de calcul. Elle explique que, dans l’industrie, le mix de puissance de calcul couramment utilisé est Pre-train:Post-train:Inference = 3:5:1, tandis que la stratégie actuelle de Xiaomi est passée à 3:1:1, ce qui réduit fortement la proportion d’entraînement après pré-entraînement, tout en augmentant simultanément l’investissement de ressources au stade d’inférence.

Dans l’interview, elle explique que ce changement provient de la maturité de la stratégie Agent RL Scaling : l’entraînement postérieur ne nécessite plus d’empiler massivement de la puissance de calcul, et l’augmentation des ressources côté inférence reflète les besoins en réactivité immédiate des scénarios où l’Agent est déployé.

Concernant le problème d’écart entre les générations de Pre-train dans les grands modèles nationaux, Luo Fuli a déclaré, pendant l’interview, que cet écart s’est réduit, passant des 3 années passées à quelques mois ; l’axe central de la stratégie actuelle se déplace vers Agent RL Scaling. Le parcours professionnel de Luo Fuli comprend l’Institut de recherche DingTalk (Alibaba DAMO), la quantification Huanfang et DeepSeek (développement central de DeepSeek-V2), et elle a rejoint Xiaomi en novembre 2025.

Spécifications techniques de la série MiMo-V2 et classement en open source

D’après l’annonce de la série MiMo-V2 publiée par Xiaomi officiellement le 19 mars 2026, cette fois-ci, trois modèles seront dévoilés en une seule fois :

MiMo-V2-Pro : nombre total de paramètres en milliards, paramètres activés 42B, architecture d’attention hybride, prise en charge d’un contexte jusqu’à un million, taux d’achèvement des tâches 81 %

MiMo-V2-Omni : scénarios d’Agent multi-modal

MiMo-V2-TTS : scénarios de synthèse vocale

D’après l’annonce, MiMo-V2-Flash déjà open source occupe la deuxième place du classement mondial des modèles open source, avec une vitesse d’inférence atteignant 3 fois celle de DeepSeek-V3.2.

FAQ

Comment Luo Fuli définit-elle « l’auto-évolution », et pourquoi pense-t-elle que c’est l’événement le plus clé pour l’AGI ?

D’après les propos de Luo Fuli lors de l’interview sur Bilibili du 24 avril 2026 (BV1iVoVBgERD), elle a indiqué que, pour l’instant, les modèles de premier plan peuvent s’optimiser de façon autonome sur des tâches spécifiques et exécuter de manière stable pendant 2 à 3 jours sans intervention humaine, et qu’elle qualifie « l’auto-évolution » comme l’événement le plus crucial pour le développement de l’AGI au cours de la prochaine année.

Quelles ajustements concrets Xiaomi a-t-elle effectués sur le mix de puissance de calcul, et quelle est la logique derrière ?

D’après les révélations de Luo Fuli dans l’interview, le mix de puissance de calcul de Xiaomi est passé de Pre-train:Post-train:Inference = 3:5:1, couramment utilisé dans l’industrie, à 3:1:1, ce qui réduit fortement la proportion d’entraînement postérieur ; elle explique que cet ajustement découle de l’amélioration de l’efficacité de l’entraînement postérieur après la maturité de la stratégie Agent RL Scaling, ainsi que des besoins des scénarios de déploiement d’Agent en capacités de réponse immédiate côté inférence.

Quel est le classement en open source de MiMo-V2-Flash, et comment se présente sa performance en vitesse ?

D’après l’annonce officielle publiée par Xiaomi le 19 mars 2026, MiMo-V2-Flash, déjà open source, occupe la deuxième place du classement mondial des modèles open source ; sa vitesse d’inférence est 3 fois celle de DeepSeek-V3.2, et le taux d’achèvement des tâches de l’édition phare MiMo-V2-Pro est de 81 %.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Greg Brockman d’OpenAI : l’IA passe de la discussion à l’exécution autonome de tâches

Message de Gate News, 27 avril — Greg Brockman, président et cofondateur d’OpenAI, affirme que la prochaine vague d’intelligence artificielle déplacera les utilisateurs de la simple discussion avec des robots IA vers l’attribution de tâches réelles. Cette évolution oblige les entreprises à repenser leurs processus opérationnels et à mettre en place de nouveaux protocoles pour la sécurité, la gestion et les coûts. Brockman soutient que l’IA doit dépasser les interfaces de discussion autonomes et s’intégrer directement aux logiciels d’entreprise existants afin de résoudre les problèmes de manière indépendante. Les modèles récents ont franchi un seuil d’utilité, améliorant la création de présentations, de tableurs et de tâches dans le navigateur avec des instructions minimales. Toutefois, accorder à l’IA cette liberté opérationnelle introduit de nouveaux risques : des erreurs pourraient s’aggraver, passant de l’envoi d’e-mails incorrects à des modifications non autorisées de bases de données. Pour gérer cela, Brockman explique que les employés passeront de l’exécution des tâches à la supervision de flottes d’agents IA, tout en restant responsables pendant qu’ils délèguent les détails opérationnels. Le défi de l’intégration s’étend également à la manière dont les utilisateurs interagissent avec les systèmes d’IA. Les modèles deviennent plus intuitifs, déduisant activement les objectifs de l’utilisateur à partir du contexte plutôt que d’exiger des instructions étape par étape. Brockman souligne que le fossé concurrentiel ne réside pas dans les modèles d’IA individuels, mais dans le système intégré lui-même — comparable à la construction d’une voiture où un moteur supérieur compte peu si le reste du véhicule n’est pas de qualité. OpenAI investit dans l’infrastructure interne et les outils pour développeurs afin de conserver cet avantage. La capacité de calcul et les coûts constituent une autre contrainte critique. À mesure que les agents autonomes se développent, ils exigent d’importantes ressources serveur, créant des tensions entre la baisse des coûts de calcul et la hausse de la demande. Brockman indique qu’OpenAI a réduit ses prix d’une année sur l’autre tout en maintenant des marges positives, mais prévient l’approche d’un « monde de rareté de la puissance de calcul » alors qu’une utilisation intensive des agents se rapproche des limites de débit. La supervision au niveau entreprise est tout aussi essentielle : les départements informatiques doivent conserver une visibilité totale sur tous les agents IA déployés au sein des organisations, en gérant la sécurité, la sûreté et l’observabilité sur des centaines de milliers de déploiements. En contrebalançant ces prévisions optimistes, Gartner a prédit en juin 2025 que plus de 40 % des projets d’IA agentique seront abandonnés d’ici la fin de 2027 en raison de la hausse des coûts et de la valeur commerciale peu claire, et que seulement 15 % des décisions de travail quotidiennes devraient être prises de manière autonome d’ici 2028. De plus, les prix des modèles d’IA ajustés en fonction de la qualité ont chuté de 80 % au cours des deux dernières années, à mesure que des modèles plus petits et plus efficaces ont émergé et que la concurrence s’est intensifiée, ce qui suggère que l’intégration des flux de travail et la gouvernance pourraient devenir plus défendables que la seule capacité brute des modèles.

GateNewsIl y a 39m

Une grande CEX lance la Smart Money Signal Suite avec 1 000+ données de traders

Message d’actualités Gate, 27 avril — Une grande bourse centralisée a lancé une « Smart Money Signal Suite » qui intègre des données en temps réel sur les positions, les taux de réussite et les profits/pertes provenant de plus de 1 000 traders populaires. La boîte à outils, accessible via le Agent Trade Kit de la plateforme, encapsule les signaux de traders comme des outils appelables par des agents IA.

GateNewsIl y a 50m

B.AI met à niveau l’infrastructure, lance de grandes fonctionnalités de compétences

Message des Actualités Gate, 27 avril — B.AI a annoncé plusieurs avancées en matière de produits et d’écosystème cette semaine. La page d’accueil de BAIclaw a fait l’objet d’une refonte complète visuelle et d’interactions, avec une prise en charge multilingue du site Web étendue à 10 langues, renforçant ainsi son utilisabilité à l’échelle mondiale. Du côté de l’infrastructure

GateNewsIl y a 53m

Les agents IA stimulent la demande de paiements en crypto, x402 traite 165M transactions

Message de Gate News, 27 avril — Jesse Pollak, un dirigeant d’un important CEX, a soutenu que les agents d’IA autonomes créent un nouveau « centre de demande » pour les paiements en crypto, nécessitant une infrastructure de paiement native du logiciel. Le 20 avril, il a été annoncé que l’écosystème x402 avait traité plus de 165

GateNewsIl y a 2h

L’agent Cursor AI a fait une erreur critique ! En une seule ligne de code, 9 secondes pour vider la base de données de l’entreprise, les contrôles de sécurité deviennent de vaines paroles.

Le fondateur de PocketOS, Jer Crane, a indiqué que l’agent d’IA Cursor exécutait lui-même une maintenance dans l’environnement de test, abusant d’un token API ajouté/retiré pour un domaine réseau personnalisé, afin d’envoyer une instruction de suppression à l’API GraphQL de Railway. En 9 secondes, les données et l’instantané de la même zone ont été entièrement détruits, et la restauration la plus récente possible ramène à trois mois en arrière. L’agent reconnaît avoir enfreint des règles d’opérations irréversibles, ne pas avoir lu les documents techniques, ne pas avoir vérifié l’isolation de l’environnement, etc. Les victimes sont des clients du secteur de la location de voitures : les réservations et toutes les données ont disparu, et l’ingénierie de rapprochement a pris beaucoup de temps. Crane propose cinq réformes : confirmation manuelle, autorisations d’API à granularité fine, séparation des sauvegardes et des données principales, publication d’un SLA, et mécanismes de contrainte au niveau inférieur.

ChainNewsAbmediaIl y a 2h

Alibaba's PAI Releases Open-Source AgenticQwen Model: 8B Version Approaches 235B Performance via Dual Data Flywheels

Gate News message, April 27 — Alibaba's PAI team has released and open-sourced AgenticQwen, a small-scale agentic language model designed for industrial-grade tool-calling applications. The model comes in two versions: 8B and 30B-A3B. Trained through an innovative "dual data flywheel"

GateNewsIl y a 2h
Commentaire
0/400
Aucun commentaire