PANews 29 Oktober, berita bahwa OpenAI hari ini merilis model inferensi keamanan sumber terbuka gpt-oss-safeguard (120b, 20b), yang memungkinkan pengembang untuk menyediakan kebijakan kustom untuk klasifikasi konten selama inferensi, dengan kesimpulan output model dan rantai inferensi. Model ini didasarkan pada bobot terbuka gpt-oss yang telah disesuaikan, menggunakan lisensi Apache 2.0, dan dapat diunduh dari Hugging Face. Penilaian internal menunjukkan bahwa akurasi multi-kebijakan lebih baik dibandingkan dengan gpt-5-thinking dan gpt-oss, dengan performa dataset eksternal mendekati Safety Reasoner. Keterbatasan termasuk: dalam banyak skenario penandaan berkualitas tinggi, pengklasifikasi tradisional masih lebih unggul, waktu inferensi dan daya komputasi yang lebih tinggi. ROOST akan membangun komunitas model dan menerbitkan laporan teknis.