Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Model sumber terbuka sedang mengejar, tetapi apa sebenarnya yang sedang dikejar?
Open source sedang mengejar, tapi perlu dijelaskan: mengejar sampai mana
Z.ai merilis GLM-5.1, dan Modal hampir bersamaan ikut tersedia untuk di-host. Dua hal yang saling bertumpuk ini, dibandingkan dilihat satu per satu, menjadi lebih menarik.
Modelnya adalah 754B MoE (parameter aktif 40B). Skor SWE-Bench Pro 58,4%; pada tugas pengkodean posisinya tidak jauh berbeda dengan GPT-5.4 dan Opus 4.6; bisa menjalankan mode otonom penuh selama 8 jam, iterasi hingga beberapa ribu kali tanpa jatuh. BenchLM saat ini berada di peringkat ke-10, dan KernelBench menunjukkan bahwa ia 3,6 kali lebih cepat dibanding solusi open source sebelumnya.
Respons di media sosial terpecah: Bindu Reddy mengatakan ini adalah bukti open source mengejar hingga menyalip closed source; Victor Taelin justru meragukan bahwa “500+ tokens/s” tidak realistis pada presisi FP8, sehingga deploy sebenarnya kemungkinan hanya sekitar 200 tps. Keduanya punya dasar—modelnya memang bisa, tetapi angka pemasaran cenderung terlalu optimistis.
Kali ini ada beberapa perbedaan dibanding rilis open source sebelumnya:
MarkTechPost dan Constellation sama-sama menafsirkan ini sebagai upaya open source dan closed source “ketinggalan 6 bulan” yang sedang menyempit. Dalam arah agen pengkodean, penilaian ini kemungkinan besar benar. Z.ai memakai lisensi MIT; fine-tuning putaran kedua sudah dalam perjalanan.
Tapi jangan mengira open source telah membalikkan keadaan secara menyeluruh. Model proprietari masih jauh lebih unggul dalam alignment keamanan dan inferensi multimodal. Yang sedang terkikis adalah benteng pada skenario agen pengkodean ini: perusahaan lebih menilai biaya deployment pada tugas seperti ini, sehingga mereka tidak terlalu sensitif terhadap perbedaan kemampuan marjinal di sana.
Lebih penting daripada model: infrastruktur
Modal berbasis klaster B200; GLM-5.1 di-deploy memakai SGLang, dan di skenario interaktif bisa berjalan pada 30–75 tokens/s. Detail teknik yang terdengar membosankan inilah yang sebenarnya paling penting.
Z.ai menunjukkan throughput 21,5k QPS di VectorDBBench (setelah 600 iterasi optimisasi). Performa seperti ini membutuhkan elastisitas serverless Modal agar dapat diserahkan secara stabil; mengandalkan model saja tidak akan mencapai skala sebesar itu.
Ini juga mengubah cara kita melihat “rilis model”: rilis tersebut tidak lagi sekadar kejadian terpisah, melainkan bagian dari strategi ekosistem. Kombinasi “model open source + infrastruktur Barat” menjadi lindung nilai terhadap penguncian API laboratorium tunggal.
Soal batas GLM-5.1: performa benchmark coding mencapai 94,6% seperti Opus, tapi gap inferensinya masih ada. Profil kapabilitas yang lebih “seimbang” ini lebih berarti untuk kasus penggunaan tertentu.
Ke depan: pendapatan Z.ai tahun lalu tumbuh 131% secara year-on-year. Jika biaya inferensi turun sampai di bawah $0,50 per jutaan tokens, open source berpeluang mengambil 30–50% pangsa deployment agen pengkodean dalam setahun. Perubahan kebijakan di AS mungkin membawa gangguan, tetapi risiko saat ini terlihat tidak tinggi.
Kesimpulan: Serangan kombinasi ini menegaskan satu hal: pada bidang vertikal agen pengkodean, kemampuan open source sudah pada dasarnya menyusul dan menyamai. Yang diuntungkan adalah Builder yang lebih dulu membangun arsitektur “tidak tergantung infrastruktur”, serta investor yang menata platform hosting. Anthropic menghadapi tekanan harga. Perusahaan yang masih sangat terikat pada API closed source sedang membayar premi karena kapabilitas yang terus mengecil kesenjangannya.
Pentingnya: Tinggi
Kategori: Rilis model, kerja sama, open source
Penilaian: Untuk jalur agen pengkodean, saat ini masih merupakan jendela yang relatif awal. Yang paling diuntungkan adalah dua jenis pihak: (1) Builder dan integrator yang membangun workflow “tidak tergantung infrastruktur”; (2) pihak yang menaruh dana pada hosting serverless dan platform inferensi. Untuk trader jangka pendek, kecuali bisa menangkap ritme penurunan harga dan perpindahan trafik, keunggulannya terbatas; untuk investor jangka panjang, perlu memperhatikan apakah kurva biaya benar-benar turun sampai di bawah $0,50 per jutaan tokens, untuk memverifikasi apakah pangsa bisa melonjak.