Китай лише за один тиждень випустив хвилю передових моделей штучного інтелекту. США відстають.
це лютий 2026: США 🇺🇸 Opus 4.6 (відвантажено 5 лютого) GPT-5.3-Codex (відвантажено 5 лютого) Gemini Deep Think (не нова модель, але з найсильнішими можливостями логічного мислення) GPT-5.3 загальний (Polymarket: ~49% до 28 лютого) Sonnet 5 “Fennec” (злив. невдовзі.) Китай 🇨🇳 GLM-5 (11 лютого. 744 млрд параметрів. відкриті ваги. найвищий бал у індексі інтелекту з відкритим доступом) MiniMax M2.5 (12 лютого. SWE-бенчмарк 80.2%. приблизно 10% вартості Opus за підтверджене завдання) Doubao 2.0 (14 лютого. ByteDance заявляє, що рівень GPT-5.2 приблизно у 10 разів дешевше) Qwen 3.5 (невдовзі. активність коду вже видно на HuggingFace) DeepSeek V4 (очікується наступного тижня. пам’ять Engram. повідомлено про понад 1 мільйон контекстів. дуже цікаво для openclaw) Kimi K2.5 (координує до 100 підагентів одночасно) MiniMax каже, що 80% їхнього власного коду тепер написано M2.5. Відео модель Seedance 2.0 ByteDance стала вірусною. Ілон похвалив її у X. open задає темп, а Китай випереджає всіх. передовий рівень минулого місяця — це базовий рівень цього місяця.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Китай лише за один тиждень випустив хвилю передових моделей штучного інтелекту. США відстають.
це лютий 2026:
США 🇺🇸
Opus 4.6 (відвантажено 5 лютого)
GPT-5.3-Codex (відвантажено 5 лютого)
Gemini Deep Think (не нова модель, але з найсильнішими можливостями логічного мислення)
GPT-5.3 загальний (Polymarket: ~49% до 28 лютого)
Sonnet 5 “Fennec” (злив. невдовзі.)
Китай 🇨🇳
GLM-5 (11 лютого. 744 млрд параметрів. відкриті ваги. найвищий бал у індексі інтелекту з відкритим доступом)
MiniMax M2.5 (12 лютого. SWE-бенчмарк 80.2%. приблизно 10% вартості Opus за підтверджене завдання)
Doubao 2.0 (14 лютого. ByteDance заявляє, що рівень GPT-5.2 приблизно у 10 разів дешевше)
Qwen 3.5 (невдовзі. активність коду вже видно на HuggingFace)
DeepSeek V4 (очікується наступного тижня. пам’ять Engram. повідомлено про понад 1 мільйон контекстів. дуже цікаво для openclaw)
Kimi K2.5 (координує до 100 підагентів одночасно)
MiniMax каже, що 80% їхнього власного коду тепер написано M2.5. Відео модель Seedance 2.0 ByteDance стала вірусною. Ілон похвалив її у X.
open задає темп, а Китай випереджає всіх.
передовий рівень минулого місяця — це базовий рівень цього місяця.