NVIDIA dan MIT Rilis Kerangka Lightning OPD, Meningkatkan Efisiensi Distilasi Model 4x Sambil Menghapus Masalah Memori GPU

Menurut laporan, peneliti NVIDIA dan MIT merilis Lightning OPD (Offline On-Policy Distillation), sebuah kerangka pasca-pelatihan baru untuk model bahasa besar yang menghilangkan kebutuhan untuk terus menjalankan model pengajar selama pelatihan. Dengan menghitung sebelumnya log-probabilitas model pengajar secara offline, kerangka ini meningkatkan efisiensi pelatihan 4x sambil membebaskan semua sumber daya GPU untuk pelatihan model siswa.

Dalam pengujian pada 8 GPU NVIDIA H100, Lightning OPD berhasil mendistilasi Qwen3-30B-A3B-Base (model MoE dengan 30 miliar parameter) dan meraih 71,0 pada tolok ukur AIME 2024, sedangkan OPD standar kehabisan memori pada perangkat keras yang sama. Untuk model Qwen3-8B yang lebih kecil, kerangka ini hanya membutuhkan 30 jam GPU untuk mencapai 69,9 poin.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar