OpenAI meluncurkan model inferensi keamanan Sumber Terbuka gpt-oss-safeguard, mendukung klasifikasi yang didorong oleh kebijakan

PANews 29 Oktober, berita bahwa OpenAI hari ini merilis model inferensi keamanan sumber terbuka gpt-oss-safeguard (120b, 20b), yang memungkinkan pengembang untuk menyediakan kebijakan kustom untuk klasifikasi konten selama inferensi, dengan kesimpulan output model dan rantai inferensi. Model ini didasarkan pada bobot terbuka gpt-oss yang telah disesuaikan, menggunakan lisensi Apache 2.0, dan dapat diunduh dari Hugging Face. Penilaian internal menunjukkan bahwa akurasi multi-kebijakan lebih baik dibandingkan dengan gpt-5-thinking dan gpt-oss, dengan performa dataset eksternal mendekati Safety Reasoner. Keterbatasan termasuk: dalam banyak skenario penandaan berkualitas tinggi, pengklasifikasi tradisional masih lebih unggul, waktu inferensi dan daya komputasi yang lebih tinggi. ROOST akan membangun komunitas model dan menerbitkan laporan teknis.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar