OpenAI lançou o modelo de raciocínio seguro de Código aberto gpt-oss-safeguard, suportando classificação impulsionada por políticas

PANews, 29 de outubro - A OpenAI lançou hoje o modelo de raciocínio seguro de código aberto gpt-oss-safeguard (120b, 20b), permitindo que os desenvolvedores forneçam políticas personalizadas para classificação de conteúdo durante o raciocínio, com conclusão de modelo e cadeia de raciocínio. O modelo é ajustado com pesos abertos gpt-oss e utiliza a licença Apache 2.0, podendo ser baixado do Hugging Face. Avaliações internas mostraram que sua precisão em múltiplas políticas é superior à do gpt-5-thinking e do gpt-oss, com desempenho próximo ao Safety Reasoner em conjuntos de dados externos. As limitações incluem: em muitos cenários de anotação de alta qualidade, os classificadores tradicionais ainda são superiores, e o tempo de raciocínio e o poder de computação são relativamente altos. O ROOST estabelecerá uma comunidade de modelos e publicará relatórios técnicos.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários