Na semana passada, um juiz federal em São Francisco bloqueou o Pentágono e a administração Trump de impor uma designação de segurança nacional contra a Anthropic, a empresa de inteligência artificial (IA) que se recusou a remover restrições de segurança dos seus modelos Claude.
A juíza do Tribunal de Distrito dos EUA, Rita F. Lin, emitiu a liminar preliminar em 26 de março, considerando que as ações do governo contra a Anthropic provavelmente violavam a Primeira Emenda, negavam à empresa o devido processo e excediam a autoridade estatutária sob a Lei de Procedimento Administrativo. A decisão permanece suspensa por sete dias, dando à administração até aproximadamente 2 de abril para apresentar um recurso de emergência ao Nono Circuito.
A disputa começou quando o Departamento de Defesa (DoD) buscou acesso irrestrito ao Claude para uso federal. A Anthropic manteve, durante muito tempo, duas exceções na sua política de uso aceitável: Claude não seria usado para vigilância doméstica em massa de cidadãos americanos ou para sistemas de armas autónomas letais operando sem supervisão humana significativa. O DoD exigiu que essas salvaguardas fossem removidas. A Anthropic recusou.
As negociações fracassaram no final de 2025. O conflito tornou-se público através de declarações escritas do CEO Dario Amodei e um ensaio que delineava a posição da empresa sobre a segurança da IA. Os oficiais do DoD viam as restrições como uma tentativa da Anthropic de ditar a política governamental.
Em 27 de fevereiro de 2026, o presidente Trump publicou no Truth Social, direcionando todas as agências federais a interromper imediatamente o uso da tecnologia da Anthropic, com um período de descontinuação de seis meses. O Secretário da Defesa Pete Hegseth anunciou uma designação de risco de cadeia de suprimentos sob 10 U.S.C. § 3252 — um estatuto anteriormente aplicado a adversários estrangeiros — rotulando a Anthropic como um potencial risco de “sabotagem” e “subversão.”
Vários contratantes federais suspenderam ou rescindiram acordos com a empresa após a designação. A Anthropic respondeu e entrou com uma ação em 9 de março no Distrito Norte da Califórnia, alegando retaliação, violações do devido processo e infrações da APA. Uma ação relacionada foi apresentada no Circuito de D.C.
Num despacho de 43 páginas, a juíza Lin proibiu o DoD, 17 outras agências federais e o Secretário Hegseth de implementar ou fazer cumprir qualquer uma das ações contestadas. Ela ordenou a restauração do status quo, permitindo que a Anthropic continuasse a executar contratos e parcerias federais existentes.
Lin escreveu que a conduta do governo representava “retaliação clássica ilegal da Primeira Emenda.” Ela observou que o timing das ações, juntamente com comunicações internas do governo que faziam referência à “retórica” da Anthropic, “arrogância” e “coação”, apontavam diretamente para uma intenção punitiva ligada às declarações públicas da empresa sobre a segurança da IA.
Sobre o devido processo, o tribunal constatou que o governo havia privado a Anthropic de interesses de liberdade em sua reputação e operações comerciais sem fornecer aviso prévio ou uma audiência. Lin também constatou que a designação estatutária nunca tinha sido aplicada a uma empresa americana nessas circunstâncias e que a verificação governamental anterior da Anthropic.
Isso inclui autorizações de Top Secret, autorização do FedRAMP e contratos no valor de até 200 milhões de dólares — não mostraram nenhuma preocupação genuína de segurança. “Nada no estatuto regulador apoia a noção orwelliana de que uma empresa americana pode ser rotulada como um potencial adversário e sabotador dos EUA por expressar desacordo com o governo,” escreveu Lin.
O tribunal encontrou um potencial dano financeiro para a Anthropic na casa das centenas de milhões a bilhões de dólares, juntamente com danos reputacionais que a reparação monetária não poderia reparar totalmente. Os pareceres de Amici de líderes militares e pesquisadores de IA citavam riscos para a prontidão de defesa e o debate mais amplo sobre a segurança da IA.
A Anthropic disse estar grata pela rapidez do tribunal e que planejava continuar a trabalhar com o governo federal. A empresa afirmou que seu objetivo permanecia garantir que os americanos tivessem acesso a uma IA segura e fiável.
A liminar não resolve a disputa contratual subjacente. Nenhuma decisão final sobre os méritos foi emitida. Um desafio separado no Circuito de D.C. permanece pendente, e a administração mantém a opção de apelar.