Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Après avoir codé avec MiMo vibe pendant un weekend...
MiMo vient tout juste de sortir, et j’ai déjà essayé avec le crédit gratuit sur OpenCode, en réalisant un petit projet. Ce projet n’était pas très difficile en soi, mais MiMo a bloqué pendant longtemps, sans retour d’erreur évident. À l’époque, je n’avais pas une bonne impression de MiMo.
Mais vendredi soir, j’ai vu quelqu’un dire que le mode de facturation par token sur le site officiel de MiMo serait beaucoup plus efficace que le crédit gratuit d’OpenCode. J’ai donc rechargé 200 yuan et poursuivi mon projet initial, ainsi que deux tâches de nettoyage de données un peu plus complexes.
Mon ressenti est que, en effet, il est bien supérieur à tous les modèles nationaux utilisant le plan de codage que j’avais essayés auparavant.
Ce n’est pas forcément visible dans le taux de réussite à chaque exécution, mais plutôt dans le fait qu’avec le plan de codage, j’avais l’impression que les fournisseurs de grands modèles nationaux limitaient certains appels à l’agent : peut-être la longueur de la chaîne de pensée ou le nombre de tours d’exécution, ce qui faisait que ces agents s’arrêtaient vers 50-60% de la tâche. Pour des cas vraiment difficiles ou des bugs complexes, ils semblaient faire comme s’ils ne voyaient pas le problème.
Avec MiMo, je pense que ce problème est beaucoup mieux géré. Il peut vraiment fonctionner pendant plusieurs heures pour résoudre des bugs très pointus. La logique est simple : avec le plan de codage, plus on appelle, plus le coût augmente ; avec la facturation par token, plus on appelle, plus les revenus augmentent.
Pour mon usage personnel, même si j’ai dépensé 200 yuan, j’ai résolu trois tâches qui me dérangeaient depuis longtemps. Je trouve ça vraiment rentable. Même en achetant des données toutes faites en ligne, ça aurait sûrement coûté plus de 200 yuan.
Mais cette expérience m’a fait réfléchir à un point contradictoire avec certains modèles nationaux :
Comme Claude, qui est déjà capable de remplacer une grande partie du travail, et que les fabricants locaux peuvent atteindre 80-90% de ses capacités ; mais si on continue à promouvoir avec le plan de codage, l’expérience utilisateur restera très limitée. Pour des tâches un peu plus complexes ou difficiles, ils ne pourront pas les gérer. Ce n’est pas un problème de capacité du modèle, mais de restrictions sur les appels, qui en retour freinent la popularisation et la diffusion des agents.
Je pense que ce problème vient principalement des limitations de puissance de calcul et des habitudes de tarification des services locaux. Qu’en pensez-vous ?
Personnellement, je pense que dans 3 à 5 ans, la demande en puissance de calcul sera toujours très forte, mais la question est de savoir si cela profitera surtout à des entreprises comme Nvidia ou si cela favorisera vraiment la montée en gamme des chips nationaux.
(Quelqu’un a aussi dit récemment que DeepSeek V4 tardait à sortir, car il doit s’adapter aux chips locaux, ce qui empêche une convergence efficace de l’entraînement…)