Exclusivo: A Anthropic lança ferramenta de IA que pode identificar bugs de software por conta própria — incluindo os mais perigosos que os humanos deixam passar
A Anthropic apresentou o Claude Code Security, o primeiro produto da empresa destinado a usar modelos de IA para ajudar as equipas de segurança a acompanhar o fluxo de bugs de software que são responsáveis por corrigir. Para grandes empresas, bugs de software não corrigidos são uma das principais causas de violações de dados, interrupções e problemas regulatórios—enquanto as equipas de segurança muitas vezes ficam sobrecarregadas com a quantidade de código que precisam proteger.
Vídeo Recomendado
Agora, em vez de apenas escanear o código em busca de padrões de problemas conhecidos, o Claude Code Security pode revisar bases de código inteiras, mais como um especialista humano faria—observando como diferentes partes do software interagem e como os dados se movimentam através de um sistema. A IA verifica suas próprias descobertas, avalia a gravidade de cada problema e sugere correções. Mas, embora o sistema possa investigar o código de forma autônoma, ele não aplica correções automaticamente, o que poderia ser perigoso por si só—os desenvolvedores devem revisar e aprovar cada alteração.
O Claude Code Security baseia-se em mais de um ano de pesquisa realizada pela equipe Frontier Red Team da empresa, um grupo interno de cerca de 15 investigadores encarregados de testar sob pressão os sistemas de IA mais avançados da Anthropic e de investigar como eles poderiam ser mal utilizados em áreas como a cibersegurança.
A pesquisa mais recente da Frontier Red Team revelou que o novo modelo Opus 4.6 da Anthropic melhorou significativamente na detecção de vulnerabilidades novas e de alta gravidade—falhas de software que permitem a atacantes invadir sistemas sem permissão, roubar dados sensíveis ou interromper serviços críticos—em vastas quantidades de código. De fato, ao testar softwares de código aberto que operam em sistemas empresariais e infraestruturas críticas, o Opus 4.6 encontrou algumas dessas vulnerabilidades que passaram despercebidas por décadas, e conseguiu fazê-lo sem ferramentas específicas para tarefas, estruturas personalizadas ou prompts especializados.
O líder da Frontier Red Team, Logan Graham, disse à Fortune que o Claude Code Security foi criado para colocar esse poder nas mãos das equipas de segurança que precisam aumentar suas capacidades defensivas. A ferramenta está sendo lançada com cautela, como uma prévia de pesquisa limitada para os clientes Enterprise e Team. A Anthropic também está oferecendo acesso gratuito e acelerado aos mantenedores de repositórios de código aberto—os desenvolvedores frequentemente com poucos recursos, responsáveis por manter softwares públicos amplamente utilizados seguros.
“Este é o próximo passo de uma empresa comprometida em impulsionar a defesa na cibersegurança,” afirmou. “Estamos usando [o Opus 4.6] de forma significativa; temos feito muitas experimentações—os modelos estão realmente melhores.” Isso é especialmente verdadeiro em termos de autonomia, acrescentou, destacando que as capacidades agenticas do Opus 4.6 significam que ele pode investigar falhas de segurança e usar várias ferramentas para testar o código. Na prática, isso significa que a IA pode explorar uma base de código passo a passo, testar como diferentes componentes se comportam e seguir pistas, como um investigador de segurança júnior faria—só que muito mais rápido.
“Isso faz uma grande diferença para engenheiros e investigadores de segurança,” disse Graham. “Vai ser um multiplicador de força para as equipas de segurança. Vai permitir que façam mais.”
Claro que não são apenas os defensores que procuram por falhas de segurança—os atacantes também usam IA para encontrar vulnerabilidades exploráveis mais rápido do que nunca, afirmou Graham, por isso é importante garantir que as melhorias favoreçam os bons. Portanto, além da prévia de pesquisa, ele disse que a Anthropic está investindo em salvaguardas para detectar uso malicioso e quando atacantes possam estar usando o sistema.
“É realmente importante garantir que uma capacidade de uso dual dê vantagem aos defensores,” afirmou.
**Junte-se a nós na Cúpula de Inovação no Local de Trabalho Fortune **de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já começou—e o antigo manual está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo se reunirão para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Exclusivo: A Anthropic lança ferramenta de IA que pode identificar bugs de software por conta própria — incluindo os mais perigosos que os humanos deixam passar
A Anthropic apresentou o Claude Code Security, o primeiro produto da empresa destinado a usar modelos de IA para ajudar as equipas de segurança a acompanhar o fluxo de bugs de software que são responsáveis por corrigir. Para grandes empresas, bugs de software não corrigidos são uma das principais causas de violações de dados, interrupções e problemas regulatórios—enquanto as equipas de segurança muitas vezes ficam sobrecarregadas com a quantidade de código que precisam proteger.
Vídeo Recomendado
Agora, em vez de apenas escanear o código em busca de padrões de problemas conhecidos, o Claude Code Security pode revisar bases de código inteiras, mais como um especialista humano faria—observando como diferentes partes do software interagem e como os dados se movimentam através de um sistema. A IA verifica suas próprias descobertas, avalia a gravidade de cada problema e sugere correções. Mas, embora o sistema possa investigar o código de forma autônoma, ele não aplica correções automaticamente, o que poderia ser perigoso por si só—os desenvolvedores devem revisar e aprovar cada alteração.
O Claude Code Security baseia-se em mais de um ano de pesquisa realizada pela equipe Frontier Red Team da empresa, um grupo interno de cerca de 15 investigadores encarregados de testar sob pressão os sistemas de IA mais avançados da Anthropic e de investigar como eles poderiam ser mal utilizados em áreas como a cibersegurança.
A pesquisa mais recente da Frontier Red Team revelou que o novo modelo Opus 4.6 da Anthropic melhorou significativamente na detecção de vulnerabilidades novas e de alta gravidade—falhas de software que permitem a atacantes invadir sistemas sem permissão, roubar dados sensíveis ou interromper serviços críticos—em vastas quantidades de código. De fato, ao testar softwares de código aberto que operam em sistemas empresariais e infraestruturas críticas, o Opus 4.6 encontrou algumas dessas vulnerabilidades que passaram despercebidas por décadas, e conseguiu fazê-lo sem ferramentas específicas para tarefas, estruturas personalizadas ou prompts especializados.
O líder da Frontier Red Team, Logan Graham, disse à Fortune que o Claude Code Security foi criado para colocar esse poder nas mãos das equipas de segurança que precisam aumentar suas capacidades defensivas. A ferramenta está sendo lançada com cautela, como uma prévia de pesquisa limitada para os clientes Enterprise e Team. A Anthropic também está oferecendo acesso gratuito e acelerado aos mantenedores de repositórios de código aberto—os desenvolvedores frequentemente com poucos recursos, responsáveis por manter softwares públicos amplamente utilizados seguros.
“Este é o próximo passo de uma empresa comprometida em impulsionar a defesa na cibersegurança,” afirmou. “Estamos usando [o Opus 4.6] de forma significativa; temos feito muitas experimentações—os modelos estão realmente melhores.” Isso é especialmente verdadeiro em termos de autonomia, acrescentou, destacando que as capacidades agenticas do Opus 4.6 significam que ele pode investigar falhas de segurança e usar várias ferramentas para testar o código. Na prática, isso significa que a IA pode explorar uma base de código passo a passo, testar como diferentes componentes se comportam e seguir pistas, como um investigador de segurança júnior faria—só que muito mais rápido.
“Isso faz uma grande diferença para engenheiros e investigadores de segurança,” disse Graham. “Vai ser um multiplicador de força para as equipas de segurança. Vai permitir que façam mais.”
Claro que não são apenas os defensores que procuram por falhas de segurança—os atacantes também usam IA para encontrar vulnerabilidades exploráveis mais rápido do que nunca, afirmou Graham, por isso é importante garantir que as melhorias favoreçam os bons. Portanto, além da prévia de pesquisa, ele disse que a Anthropic está investindo em salvaguardas para detectar uso malicioso e quando atacantes possam estar usando o sistema.
“É realmente importante garantir que uma capacidade de uso dual dê vantagem aos defensores,” afirmou.
**Junte-se a nós na Cúpula de Inovação no Local de Trabalho Fortune **de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já começou—e o antigo manual está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo se reunirão para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.