Après avoir codé avec MiMo vibe pendant un weekend...

robot
Création du résumé en cours

MiMo vient tout juste de sortir, et j’ai déjà essayé avec le crédit gratuit sur OpenCode, en réalisant un petit projet. Ce projet n’était pas très difficile en soi, mais MiMo a bloqué pendant longtemps, sans retour d’erreur évident. À l’époque, je n’avais pas une bonne impression de MiMo.

Mais vendredi soir, j’ai vu quelqu’un dire que le mode de facturation par token sur le site officiel de MiMo serait beaucoup plus efficace que le crédit gratuit d’OpenCode. J’ai donc rechargé 200 yuan et poursuivi mon projet initial, ainsi que deux tâches de nettoyage de données un peu plus complexes.

Mon ressenti est que, en effet, il est bien supérieur à tous les modèles nationaux utilisant le plan de codage que j’avais essayés auparavant.

Ce n’est pas forcément visible dans le taux de réussite à chaque exécution, mais plutôt dans le fait qu’avec le plan de codage, j’avais l’impression que les fournisseurs de grands modèles nationaux limitaient certains appels à l’agent : peut-être la longueur de la chaîne de pensée ou le nombre de tours d’exécution, ce qui faisait que ces agents s’arrêtaient vers 50-60% de la tâche. Pour des cas vraiment difficiles ou des bugs complexes, ils semblaient faire comme s’ils ne voyaient pas le problème.

Avec MiMo, je pense que ce problème est beaucoup mieux géré. Il peut vraiment fonctionner pendant plusieurs heures pour résoudre des bugs très pointus. La logique est simple : avec le plan de codage, plus on appelle, plus le coût augmente ; avec la facturation par token, plus on appelle, plus les revenus augmentent.

Pour mon usage personnel, même si j’ai dépensé 200 yuan, j’ai résolu trois tâches qui me dérangeaient depuis longtemps. Je trouve ça vraiment rentable. Même en achetant des données toutes faites en ligne, ça aurait sûrement coûté plus de 200 yuan.

Mais cette expérience m’a fait réfléchir à un point contradictoire avec certains modèles nationaux :
Comme Claude, qui est déjà capable de remplacer une grande partie du travail, et que les fabricants locaux peuvent atteindre 80-90% de ses capacités ; mais si on continue à promouvoir avec le plan de codage, l’expérience utilisateur restera très limitée. Pour des tâches un peu plus complexes ou difficiles, ils ne pourront pas les gérer. Ce n’est pas un problème de capacité du modèle, mais de restrictions sur les appels, qui en retour freinent la popularisation et la diffusion des agents.

Je pense que ce problème vient principalement des limitations de puissance de calcul et des habitudes de tarification des services locaux. Qu’en pensez-vous ?
Personnellement, je pense que dans 3 à 5 ans, la demande en puissance de calcul sera toujours très forte, mais la question est de savoir si cela profitera surtout à des entreprises comme Nvidia ou si cela favorisera vraiment la montée en gamme des chips nationaux.

(Quelqu’un a aussi dit récemment que DeepSeek V4 tardait à sortir, car il doit s’adapter aux chips locaux, ce qui empêche une convergence efficace de l’entraînement…)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler