OpenAI e Anthropic testam mutuamente problemas de alucinação e segurança dos modelos.

GateNews
GPT-45,27%

Jin10 dados, 28 de agosto - A OpenAI e a Anthropic recentemente avaliaram mutuamente os modelos uma da outra, com o objetivo de descobrir possíveis problemas que poderiam ter sido perdidos em seus próprios testes. As duas empresas afirmaram em seus blogs na quarta-feira que, neste verão, realizaram testes de segurança nos modelos de IA disponíveis publicamente uma da outra e verificaram se os modelos apresentavam tendências de alucinação, bem como o chamado problema de “desalinhamento” (misalignment), ou seja, se os modelos não estavam funcionando conforme o esperado pelos desenvolvedores. Essas avaliações foram concluídas antes do lançamento do GPT-5 pela OpenAI e do lançamento do Opus 4.1 pela Anthropic no início de agosto. A Anthropic foi fundada por ex-funcionários da OpenAI.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários