O que faz o GPT e o Claude se unirem é a oposição ao Pentágono?

robot
Geração de resumo em curso

Autor do artigo: Curry, Deep Tide TechFlow

Há alguns dias, surgiu uma foto que viralizou na internet.

A Índia realizou uma cúpula de IA, com o primeiro-ministro Modi no palco, ladeado por uma fila de grandes nomes do Vale do Silício. Na foto de grupo, Modi levantou a mão de uma pessoa ao seu lado acima da cabeça, e os demais também se uniram de mãos dadas, criando uma cena de união.

Porém, apenas duas pessoas não estavam de mãos dadas.

O CEO da OpenAI e o CEO da Anthropic, ou seja, os chefes das empresas por trás do ChatGPT e do Claude, estavam ao lado um do outro, cada um com um punho levantado.

Sem apertar as mãos, sem contato visual, pareciam dois desafetos colocados na mesma mesa pelo professor.

Essas duas empresas têm se enfrentado intensamente nos últimos anos. Claude foi criado por uma equipe que saiu da OpenAI, e ambas competem por usuários, clientes empresariais e financiamento. Durante o Super Bowl, a Anthropic até gastou dinheiro em anúncios zombando do ChatGPT.

Portanto, não apertar as mãos era o normal.

Porém, hoje eles se cumprimentaram. Porque o Pentágono.

A história é a seguinte.

A Anthropic, a empresa por trás do Claude, assinou no ano passado um contrato de até 200 milhões de dólares com o Departamento de Defesa dos EUA. Claude foi o primeiro modelo de IA implantado em redes confidenciais militares, auxiliando na análise de inteligência e planejamento de missões.

Porém, a Anthropic estabeleceu duas linhas vermelhas no contrato:

Claude não pode ser usado para vigilância em massa de cidadãos americanos, nem para armas autônomas sem participação humana. (Leitura recomendada: Os setenta e dois horas de crise de identidade da Anthropic)

Porém, o Pentágono não aceitou.

Eles exigiram quatro palavras: sem restrições. Uma vez comprado, o produto deve ser usado livremente. Como uma empresa de tecnologia pode dizer ao exército americano o que pode ou não fazer?

Na terça-feira passada, o secretário de Defesa, Hegseth, pessoalmente deu um ultimato ao CEO da Anthropic: até sexta-feira às 17h01, aceitar, ou arcar com as consequências.

A Anthropic não aceitou.

O CEO publicou uma declaração pública, dizendo, em resumo: “Reconhecemos a importância da IA para a defesa dos EUA, mas, em alguns casos, a IA pode prejudicar, e não defender, os valores democráticos. Não podemos, com consciência, aceitar essa condição.

O representante do Pentágono, o vice-secretário de Defesa Emil Michael, posteriormente criticou-o nas redes sociais, chamando-o de mentiroso, alegando que ele tem um complexo de Deus e que está brincando com a segurança nacional.

Um breve aperto de mãos

Então, algo inesperado aconteceu.

Mais de 400 funcionários da OpenAI e do Google assinaram uma carta conjunta, intitulada “Não seremos divididos”.

Na carta, afirmam que o Pentágono está negociando individualmente com várias empresas de IA, tentando fazer com que outras aceitem as condições que a Anthropic se recusa, usando o medo para dividir as empresas.

O CEO da OpenAI também enviou uma mensagem interna a todos os funcionários, dizendo que a OpenAI compartilha as mesmas linhas vermelhas da Anthropic:

Sem vigilância em massa, sem armas autônomas de destruição, decisões de alto risco com participação humana.

Poucos dias antes, as duas empresas que inicialmente se recusaram a se unir, de repente, estavam do mesmo lado.

Porém, essa união provavelmente durou apenas algumas horas.

Na sexta-feira às 17h01, o ultimato do Pentágono expirou. A Anthropic não assinou.

Uma empresa americana avaliada em 380 bilhões de dólares, arriscando perder um contrato de 200 milhões, recusou-se a aceitar as condições do Departamento de Defesa. Antes, isso seria apenas uma questão de trocar de fornecedor. Mas a reação de Washington foi muito além do âmbito comercial.

Trump, cerca de uma hora depois, postou no Truth Social chamando a Anthropic de “lunáticos de esquerda”, dizendo que eles tentam se sobrepor à Constituição e zombam da vida dos militares americanos.

Ele pediu que todas as agências federais parassem imediatamente de usar a tecnologia da Anthropic.

Logo depois, o secretário de Defesa, Hegseth, declarou que a Anthropic foi classificada como “risco na cadeia de suprimentos de segurança”. Essa etiqueta costuma ser usada para empresas como a Huawei. Significa que todos os contratados que fazem negócios com o exército americano não podem mais usar os produtos da Anthropic.

A Anthropic afirmou que irá processar.

E, na mesma noite, a OpenAI, que até então mantinha a mesma posição, assinou um acordo com o Pentágono.

Questões ideológicas

O que a OpenAI conseguiu?

Após a saída do Claude, ela ficou como fornecedora de IA para redes confidenciais militares. Mas a OpenAI apresentou três condições ao Pentágono: não fazer vigilância em massa, não desenvolver armas autônomas de destruição, e decisões de alto risco devem envolver humanos.

O Pentágono concordou.

Você não leu errado. As condições que a Anthropic relutou semanas para aceitar, uma nova empresa propôs e foi rapidamente aprovada?

Claro que as propostas não são exatamente iguais.

A Anthropic pediu uma camada adicional: eles acreditam que a legislação atual não acompanha o avanço da IA, por exemplo, a IA pode comprar e agregar legalmente seus dados de localização, navegação, redes sociais, de modo que tudo isso se torne uma espécie de vigilância, sem que nenhuma lei seja violada.

A Anthropic afirmou que simplesmente escrever “não fazer vigilância” não basta, esse ponto precisa ser fechado. A OpenAI não insistiu nisso, aceitando a argumentação do Pentágono de que a legislação atual é suficiente.

Mas, se você acha que isso é só uma questão de cláusula, está sendo ingênuo. Desde o início, essa negociação não tratou apenas de termos.

David Sacks, o “rei da IA” no governo Biden, já criticou publicamente a Anthropic por criar uma “IA woke” (ideologicamente carregada, politicamente correta); altos funcionários do Pentágono disseram à mídia que o problema do Dario é motivado por ideologia, “sabemos com quem estamos lidando”.

Elon Musk, com sua xAI, é um concorrente direto da Anthropic. Ele tem atacado repetidamente a empresa na X, dizendo que ela “odeia a civilização ocidental”.

E a CEO da Anthropic não foi à posse de Trump no ano passado. O CEO da OpenAI, sim.

Exemplo para alertar

Vamos resumir o que aconteceu.

Princípios semelhantes, linhas vermelhas iguais, mas a Anthropic, ao pedir uma camada extra de segurança, ao se posicionar errado e ao adotar uma postura equivocada, foi marcada como uma ameaça à segurança nacional dos EUA, ao mesmo nível da Huawei.

A OpenAI, ao abrir mão de uma camada, manteve uma boa relação e conseguiu o contrato. Isso é uma vitória de princípios ou uma precificação de princípios?

Não é a primeira vez que um contrato com o Pentágono é boicotado.

Em 2018, mais de 4 mil funcionários do Google assinaram uma petição, e alguns se demitiram, protestando contra a participação no projeto Maven, que usava IA para analisar vídeos de drones e ajudar o exército a identificar alvos mais rapidamente.

No final, o Google saiu do projeto, não renovou o contrato. Os funcionários venceram.

Passaram-se 8 anos, e a mesma controvérsia reapareceu. Mas, desta vez, as regras mudaram completamente. Uma empresa americana pode fazer negócios com o exército, desde que não viole duas condições. A resposta do governo foi excluí-la de todo o sistema federal.

E o impacto de uma etiqueta como “risco na cadeia de suprimentos de segurança” vai muito além de perder um contrato de 200 milhões de dólares.

A Anthropic este ano faturou cerca de 14 bilhões de dólares, e um contrato de 200 milhões representa menos de 1%. Mas essa etiqueta significa que qualquer empresa que faça negócios com o exército americano não pode usar o Claude.

Essas empresas não precisam concordar com a posição do Pentágono, apenas fazer uma avaliação de risco: continuar usando o Claude pode significar perder contratos governamentais; trocar de modelo, nada acontece.

A decisão é simples. Esse é o verdadeiro sinal dessa história.

Se a Anthropic consegue resistir ou não, não é o mais importante. O que importa é se a próxima empresa vai se arriscar. Ela vai observar esse resultado, o custo de manter princípios, e tomar uma decisão racional.

Voltando àquela foto da Índia, todos de mãos dadas acima da cabeça, exceto eles, que estão com os punhos cerrados.

Talvez essa seja a nova normalidade.

Princípios das empresas de IA podem ser iguais, mas nem sempre as mãos podem se unir.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)