CEO da Anthropic: Claude não deve ser utilizado em aplicações militares, espera-se assinar termos mais claros

ChainNewsAbmedia

Anthropic CEO Dario Amodei foi entrevistado pelo editor-chefe do The Economist, Zanny Minton Beddoes, explicando por que a Anthropic se opõe a algumas cláusulas nos contratos com o Pentágono. Ele acredita que a posição da Anthropic não se baseia apenas em valores democráticos, mas também na preocupação se os modelos de IA existentes são suficientemente confiáveis para aplicações militares e quem deve controlá-los no final. Amodei também revelou o desejo de manter um diálogo com o governo para discutir cláusulas mais claras sobre IA.

Amodei: Claude ainda não é um modelo totalmente automatizado para uso militar

Após a proibição do governo Trump de usar as ferramentas de modelos fornecidas pela Anthropic por parte de agências federais, devido à sua posição contra o uso de Claude em vigilância em massa ou armas autônomas, Claude foi rotulado como fornecedor de riscos de IA nos EUA. Amodei afirmou que o principal modelo da Anthropic, Claude, ainda não está pronto para aplicações militares totalmente automatizadas. Como fornecedor privado de IA, é difícil explicar ao governo como usar o modelo de forma segura, mas ele considera isso uma medida necessária de segurança.

Amodei esclareceu que a Anthropic assinou um contrato de escopo limitado com o Pentágono, que até agora não apresentou problemas. No entanto, ele expressou preocupação com o uso futuro e a expansão do escopo. A automação militar total poderia criar cenários onde a IA controla milhões de drones sem seguir normas militares tradicionais, e sem limites regulatórios, esse controle se tornaria incontrolável.

Como a Anthropic justifica a limitação do uso de armas?

Na entrevista, Amodei explicou que a restrição do uso de Claude para comandar drones em armas totalmente autônomas se baseia em dois pontos: a confiabilidade insuficiente do Claude e a ausência de um quadro de supervisão humana (vídeo 0:00-0:18, 5:48-5:58).

Confiabilidade do Claude: Amodei acredita que o modelo Claude ainda não suporta aplicações militares totalmente automatizadas, comparando-o a uma companhia aérea que deveria divulgar que certos métodos de pilotagem são inseguros (vídeo 0:05-0:49).

Falta de supervisão humana: Ele teme que a ausência de regulamentação humana para gerenciar um exército de drones possa permitir que uma única pessoa controle milhões de armas, sem a responsabilidade tradicional de um comando militar (vídeo 5:48-6:55).

Como lidar com divergências na inteligência artificial militar?

Amodei, na conversa com o The Economist, expressou esperança de que a Anthropic e o governo possam trabalhar juntos de forma mais detalhada para resolver divergências na aplicação da IA. Ele enfatizou que fornecedores de IA e o governo devem discutir a confiabilidade dos modelos existentes e as normas de governança para mitigar riscos potenciais. Amodei acredita que os fornecedores têm a responsabilidade de esclarecer se seus modelos são maduros para aplicações de alto risco.

Ele propôs inicialmente assinar contratos limitados, cobrindo casos de uso consensuais, para que ambos possam estabelecer normas de operação antes de expandir para tarefas mais controversas. Ainda assim, é necessário um debate para encontrar um equilíbrio que evite concentrar poder demais nas empresas privadas ou tornar o controle governamental absoluto e inquestionável.

O nome Anthropic vem de “antropologia”, refletindo a missão dos fundadores de criar uma empresa de IA centrada no ser humano. Essa convicção fez de Amodei um dos poucos CEOs dispostos a desafiar abertamente o governo dos EUA e denunciar a China por roubar tecnologia Claude. Como a Anthropic consegue equilibrar seus princípios com a segurança nacional será um marco importante no desenvolvimento da IA militarizada. Como resolver esse impasse sobre soberania tecnológica e limites éticos? O mundo está atento.

Este artigo, “CEO da Anthropic: Claude não é adequado para uso militar, busca cláusulas mais claras”, foi originalmente publicado na ABMedia.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário