Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
GPT-5.5 « 9,7T paramètres » réévalué : révisé à environ 1,5T
Selon la surveillance de Beating, les chercheurs en IA Lawrence Chan et Benno Sturgeon ont publié une revue de l’article du scientifique en chef de Pine AI, Li Bojie, intitulé « Enquêtes sur la connaissance incompressible : estimation du nombre de paramètres des grands modèles de langage boîte noire basé sur la capacité factuelle ».
L’article original estimait que GPT-5.5 comptait environ 9,7T, Claude Opus 4.7 environ 4,0T, et o1 environ 3,5T en utilisant 1 400 questions de trivia pour « peser » les modèles à source fermée.
Les examinateurs pensent que, bien que l’approche elle-même soit précieuse, les chiffres initiaux ont été considérablement gonflés en raison des critères de notation et de la qualité des questions.
Le problème principal réside dans le « score plancher ».
L’article original divisait les questions en sept niveaux de difficulté, et lorsqu’un modèle répondait trop souvent incorrectement à un certain niveau, le score pouvait théoriquement devenir négatif ; cependant, le code ramenait en réalité le score minimum pour chaque niveau à 0.
Cela a gonflé l’écart de performance des modèles de pointe sur des questions difficiles et a encore augmenté le nombre de paramètres inférés.
L’article affirme que cela n’a pas été traité de cette manière, mais le code et les résultats publiés utilisaient cette méthode.
Après avoir supprimé le « score plancher », la pente d’ajustement est passée de 6,79 à 3,56.
Cette pente peut être comprise comme « pour chaque point d’augmentation du score, combien la croissance en paramètres est traduite » ; une pente plus petite indique que la même différence de score ne correspond plus à une différence de paramètres aussi exagérée.
La valeur R² est tombée de 0,917 à 0,815, ce qui indique que la courbe d’ajustement « score en nombre de paramètres » n’est pas aussi stable que dans l’article original.
L’intervalle de prédiction à 90 % s’est élargi de 3,0 fois à 5,7 fois, suggérant une marge d’erreur plus large et que les chiffres ponctuels ne doivent pas être pris au sérieux.
La revue a également souligné que 131 questions sur 1 400 présentaient des ambiguïtés ou des réponses incorrectes, représentant 9,4 %.
Les problèmes étaient principalement concentrés dans les questions difficiles, utilisées pour différencier des modèles à source fermée de pointe comme GPT-5.5 et Claude Opus 4.7.
Selon leurs critères révisés, GPT-5.5 a été réduit de 9659B à 1458B dans l’article original, avec un intervalle de prédiction à 90 % de 256B à 8311B ;
Claude Opus 4.7 a été réduit de 4042B à 1132B ;
et GPT-5 a été réduit de 4088B à 1330B.
Les examinateurs ont également souligné que 1,5T ne devrait pas être considéré comme le vrai nombre de paramètres pour GPT-5.5.
Une conclusion plus précise est que cette « méthode de pesée par trivia » est très sensible aux détails de notation et à la qualité des questions, et que des chiffres comme 9,7T ne peuvent pas être utilisés directement comme mesure de poids pour des modèles à source fermée.