PANews 29 octobre, OpenAI a publié aujourd'hui le modèle de raisonnement de sécurité Open Source gpt-oss-safeguard (120b, 20b), permettant aux développeurs de fournir des politiques personnalisées pour la classification du contenu lors du raisonnement, les conclusions de sortie du modèle et la chaîne de raisonnement. Ce modèle est basé sur le poids ouvert gpt-oss, affiné, et utilise la licence Apache 2.0, et peut être téléchargé depuis Hugging Face. Les évaluations internes montrent qu'il surpasse gpt-5-thinking et gpt-oss en termes de précision multi-politique, et ses performances sur les ensembles de données externes sont proches de Safety Reasoner. Les limitations incluent : dans de nombreux scénarios annotés de haute qualité, les classificateurs traditionnels restent supérieurs, et le temps de raisonnement et la Puissance de calcul sont relativement élevés. ROOST établira une communauté de modèles et publiera des rapports techniques.