A equipa de Trump está furiosa com a posição de princípio de Dario Amodei de impedir que o Departamento de Defesa utilize as suas ferramentas de IA para fins bélicos
O contrato de 200 milhões de dólares da Anthropic com o Departamento de Defesa está em risco após a Anthropic supostamente ter levantado preocupações sobre o uso do seu modelo de IA Claude durante a operação contra Nicolás Maduro em janeiro.
Vídeo Recomendado
“A relação do Departamento de Guerra com a Anthropic está a ser revista”, afirmou o porta-voz-chefe do Pentágono, Sean Parnell, em comunicado à Fortune. “A nossa nação exige que os nossos parceiros estejam dispostos a ajudar os nossos combatentes a vencer qualquer batalha. No final, isto trata-se dos nossos soldados e da segurança do povo americano.”
As tensões aumentaram nas últimas semanas após um alto responsável da Anthropic supostamente ter contactado um executivo sénior da Palantir para questionar como o Claude foi utilizado na operação, segundo The Hill. O executivo da Palantir interpretou o contacto como uma desaprovação do uso do modelo na operação e encaminhou os detalhes da troca ao Pentágono. (O presidente Trump afirmou que o exército usou uma arma “desconcertadora” durante a operação, que fez com que o equipamento inimigo “não funcionasse”.)
“A Anthropic não discutiu o uso do Claude para operações específicas com o Departamento de Guerra”, afirmou um porta-voz da Anthropic em comunicado à Fortune. “Também não discutimos isso com, nem expressamos preocupações a, parceiros da indústria fora de discussões rotineiras sobre assuntos estritamente técnicos.”
No centro desta disputa estão as regras contratuais que determinam como os modelos de IA podem ser utilizados em operações de defesa. O CEO da Anthropic, Dario Amodei, tem defendido consistentemente limites rigorosos ao uso e à regulamentação da IA, admitindo que se torna difícil equilibrar segurança e lucros. Há meses, a empresa e o DOD têm mantido negociações contenciosas sobre como o Claude pode ser utilizado em operações militares.
De acordo com o contrato do Departamento de Defesa, a Anthropic não permite que o Pentágono utilize os seus modelos de IA para vigilância em massa de americanos ou para uso em armas totalmente autónomas. A empresa também proibiu o uso da sua tecnologia em aplicações militares “letais” ou “cinéticas”. Qualquer envolvimento direto em fogo ativo durante a operação de Maduro provavelmente violaria esses termos.
Entre as empresas de IA que contratam com o governo — incluindo OpenAI, Google e xAI — a Anthropic detém uma posição lucrativa ao colocar o Claude como o único grande modelo de linguagem autorizado nas redes classificadas do Pentágono.
Esta posição foi destacada pela Anthropic numa declaração à Fortune. “O Claude é utilizado em uma grande variedade de casos de uso relacionados com inteligência no governo, incluindo o DoW, em conformidade com a nossa Política de Uso.”
A empresa “está comprometida em usar IA de fronteira em apoio à segurança nacional dos EUA”, dizia o comunicado. “Estamos a ter conversas produtivas, de boa-fé, com o DoW sobre como continuar esse trabalho e resolver essas questões complexas corretamente.”
A Palantir, OpenAI, Google e xAI não responderam imediatamente a pedidos de comentário.
A IA vai à guerra
Apesar do DOD ter acelerado esforços para integrar a IA nas suas operações, apenas a xAI concedeu ao DOD o uso dos seus modelos para “todos os fins legais”, enquanto as outras mantêm restrições de uso.
Amodei tem alertado há meses sobre a proteção dos utilizadores, oferecendo a Anthropic como uma alternativa de segurança prioritária à OpenAI e Google na ausência de regulamentações governamentais. “Estou profundamente desconfortável com estas decisões serem tomadas por algumas empresas”, afirmou em novembro. Embora se rumorasse que a Anthropic planeava aliviar restrições, a empresa agora enfrenta a possibilidade de ser excluída completamente da indústria de defesa.
Um alto responsável do Pentágono disse à Axios que o secretário de Defesa, Pete Hegseth, está “próximo” de retirar a Anthropic da cadeia de fornecimento militar, forçando qualquer pessoa que deseje fazer negócios com o exército a cortar também os laços com a empresa.
“Vai ser uma grande dor de cabeça desatar esses nós, e vamos garantir que eles paguem um preço por forçar a nossa mão assim”, afirmou o responsável à publicação.
Ser considerado uma questão de risco de fornecimento militar é uma designação especial, geralmente reservada apenas para adversários estrangeiros. O precedente mais próximo é a proibição do governo à Huawei em 2019, por motivos de segurança nacional. No caso da Anthropic, fontes disseram à Axios que os responsáveis pela defesa têm procurado provocar um conflito com a empresa de São Francisco há algum tempo.
Os comentários do Pentágono representam o mais recente episódio de uma disputa pública que está a chegar ao ponto de ebulição. O governo afirma que estabelecer limites éticos às empresas para os seus modelos seria excessivamente restritivo, e que o grande número de áreas cinzentas tornaria as tecnologias inúteis. À medida que o Pentágono continua a negociar com os subcontratados de IA para ampliar o uso, a disputa pública torna-se uma batalha indireta sobre quem vai ditar os usos da IA.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A equipa de Trump está furiosa com a posição de princípio de Dario Amodei de impedir que o Departamento de Defesa utilize as suas ferramentas de IA para fins bélicos
O contrato de 200 milhões de dólares da Anthropic com o Departamento de Defesa está em risco após a Anthropic supostamente ter levantado preocupações sobre o uso do seu modelo de IA Claude durante a operação contra Nicolás Maduro em janeiro.
Vídeo Recomendado
“A relação do Departamento de Guerra com a Anthropic está a ser revista”, afirmou o porta-voz-chefe do Pentágono, Sean Parnell, em comunicado à Fortune. “A nossa nação exige que os nossos parceiros estejam dispostos a ajudar os nossos combatentes a vencer qualquer batalha. No final, isto trata-se dos nossos soldados e da segurança do povo americano.”
As tensões aumentaram nas últimas semanas após um alto responsável da Anthropic supostamente ter contactado um executivo sénior da Palantir para questionar como o Claude foi utilizado na operação, segundo The Hill. O executivo da Palantir interpretou o contacto como uma desaprovação do uso do modelo na operação e encaminhou os detalhes da troca ao Pentágono. (O presidente Trump afirmou que o exército usou uma arma “desconcertadora” durante a operação, que fez com que o equipamento inimigo “não funcionasse”.)
“A Anthropic não discutiu o uso do Claude para operações específicas com o Departamento de Guerra”, afirmou um porta-voz da Anthropic em comunicado à Fortune. “Também não discutimos isso com, nem expressamos preocupações a, parceiros da indústria fora de discussões rotineiras sobre assuntos estritamente técnicos.”
No centro desta disputa estão as regras contratuais que determinam como os modelos de IA podem ser utilizados em operações de defesa. O CEO da Anthropic, Dario Amodei, tem defendido consistentemente limites rigorosos ao uso e à regulamentação da IA, admitindo que se torna difícil equilibrar segurança e lucros. Há meses, a empresa e o DOD têm mantido negociações contenciosas sobre como o Claude pode ser utilizado em operações militares.
De acordo com o contrato do Departamento de Defesa, a Anthropic não permite que o Pentágono utilize os seus modelos de IA para vigilância em massa de americanos ou para uso em armas totalmente autónomas. A empresa também proibiu o uso da sua tecnologia em aplicações militares “letais” ou “cinéticas”. Qualquer envolvimento direto em fogo ativo durante a operação de Maduro provavelmente violaria esses termos.
Entre as empresas de IA que contratam com o governo — incluindo OpenAI, Google e xAI — a Anthropic detém uma posição lucrativa ao colocar o Claude como o único grande modelo de linguagem autorizado nas redes classificadas do Pentágono.
Esta posição foi destacada pela Anthropic numa declaração à Fortune. “O Claude é utilizado em uma grande variedade de casos de uso relacionados com inteligência no governo, incluindo o DoW, em conformidade com a nossa Política de Uso.”
A empresa “está comprometida em usar IA de fronteira em apoio à segurança nacional dos EUA”, dizia o comunicado. “Estamos a ter conversas produtivas, de boa-fé, com o DoW sobre como continuar esse trabalho e resolver essas questões complexas corretamente.”
A Palantir, OpenAI, Google e xAI não responderam imediatamente a pedidos de comentário.
A IA vai à guerra
Apesar do DOD ter acelerado esforços para integrar a IA nas suas operações, apenas a xAI concedeu ao DOD o uso dos seus modelos para “todos os fins legais”, enquanto as outras mantêm restrições de uso.
Amodei tem alertado há meses sobre a proteção dos utilizadores, oferecendo a Anthropic como uma alternativa de segurança prioritária à OpenAI e Google na ausência de regulamentações governamentais. “Estou profundamente desconfortável com estas decisões serem tomadas por algumas empresas”, afirmou em novembro. Embora se rumorasse que a Anthropic planeava aliviar restrições, a empresa agora enfrenta a possibilidade de ser excluída completamente da indústria de defesa.
Um alto responsável do Pentágono disse à Axios que o secretário de Defesa, Pete Hegseth, está “próximo” de retirar a Anthropic da cadeia de fornecimento militar, forçando qualquer pessoa que deseje fazer negócios com o exército a cortar também os laços com a empresa.
“Vai ser uma grande dor de cabeça desatar esses nós, e vamos garantir que eles paguem um preço por forçar a nossa mão assim”, afirmou o responsável à publicação.
Ser considerado uma questão de risco de fornecimento militar é uma designação especial, geralmente reservada apenas para adversários estrangeiros. O precedente mais próximo é a proibição do governo à Huawei em 2019, por motivos de segurança nacional. No caso da Anthropic, fontes disseram à Axios que os responsáveis pela defesa têm procurado provocar um conflito com a empresa de São Francisco há algum tempo.
Os comentários do Pentágono representam o mais recente episódio de uma disputa pública que está a chegar ao ponto de ebulição. O governo afirma que estabelecer limites éticos às empresas para os seus modelos seria excessivamente restritivo, e que o grande número de áreas cinzentas tornaria as tecnologias inúteis. À medida que o Pentágono continua a negociar com os subcontratados de IA para ampliar o uso, a disputa pública torna-se uma batalha indireta sobre quem vai ditar os usos da IA.