OpenAI a lancé le modèle de raisonnement sécuritaire Open Source gpt-oss-safeguard, qui prend en charge la classification basée sur des politiques.

PANews 29 octobre, OpenAI a publié aujourd'hui le modèle de raisonnement de sécurité Open Source gpt-oss-safeguard (120b, 20b), permettant aux développeurs de fournir des politiques personnalisées pour la classification du contenu lors du raisonnement, les conclusions de sortie du modèle et la chaîne de raisonnement. Ce modèle est basé sur le poids ouvert gpt-oss, affiné, et utilise la licence Apache 2.0, et peut être téléchargé depuis Hugging Face. Les évaluations internes montrent qu'il surpasse gpt-5-thinking et gpt-oss en termes de précision multi-politique, et ses performances sur les ensembles de données externes sont proches de Safety Reasoner. Les limitations incluent : dans de nombreux scénarios annotés de haute qualité, les classificateurs traditionnels restent supérieurs, et le temps de raisonnement et la Puissance de calcul sont relativement élevés. ROOST établira une communauté de modèles et publiera des rapports techniques.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire