O Departamento de Guerra dos EUA está pressionando para que sejam revogados os limites previamente acordados para vigilância e armas autônomas comandadas pela IA. A Anthropic, uma das principais empresas de inteligência artificial do Vale do Silício, está em impasse com o Pentágono sobre até que ponto sistemas de IA poderosos podem ser usados para fins bélicos e de vigilância.
Fonte: Rússia Today
A disputa gira em torno do chatbot Claude, da Anthropic, que estava sendo executado em redes militares classificadas dos EUA e teria sido usado no planejamento da operação para capturar o presidente venezuelano Nicolás Maduro.
O Departamento de Guerra deu à empresa até as 17h01 (horário do leste dos EUA, 22h01 GMT) dessa sexta-feira para atender às exigências de suspensão de salvaguardas essenciais, sob pena de ser incluída em uma lista negra como um “risco para a cadeia de suprimentos”.
Por que o chatbot Claude é importante para o Pentágono
Claude está profundamente integrado aos fluxos de trabalho de defesa GUERRA dos EUA. A empresa afirma que seus modelos já são usados em diversas agências de segurança nacional para análise de inteligência, simulações, planejamento operacional, operações cibernéticas e outras tarefas de “missão crítica”.
A Anthropic tornou-se a primeira empresa de IA a implantar sistemas nas redes classificadas do Pentágono, assinando um contrato de até US$ 200 milhões com o Departamento de Guerra no verão passado. Outros grandes fornecedores de IA só fecharam acordos até agora para executar seus modelos em sistemas não classificados das forças armadas, o que coloca Claude em uma posição privilegiada dentro do aparato de defesa GUERRA dos EUA.
Quais são as exigências do Pentágono?
Na política de uso aceitável da Anthropic para o Departamento de Guerra, existem proibições explícitas ao uso do Claude para vigilância doméstica em massa e para armas totalmente autônomas. Essas salvaguardas contratuais refletem as normas internas da empresa.
O Pentágono exigiu que esses limites sejam eliminados. Autoridades afirmam que desejam poder usar o sistema para “todos os fins legais” e, segundo a mídia americana, pressionaram a empresa a fornecer uma versão “limpa” do modelo, livre de restrições morais e éticas.
“Não se pode conduzir operações táticas por exceção”, disse um oficial do Pentágono, que preferiu não ser identificado, citado pela CNN, insistindo que “a legalidade é responsabilidade do Pentágono como usuário final”. Os militares argumentam que não podem se dar ao luxo de estar em uma crise e ter que pedir permissão a uma empresa privada para remover proteções.
O secretário de Guerra dos EUA, Pete HegSETH, que se reuniu esta semana com o CEO da Anthropic, Dario Amodei, reclamou publicamente que o Pentágono não precisa de redes neurais “que não sabem lutar” e ameaçou designar a Anthropic como um “risco para a cadeia de suprimentos” – um rótulo geralmente reservado para empresas vistas como extensões de adversários estrangeiros.
O porta-voz do Pentágono, Sean Parnell, afirmou que os militares “não têm interesse em usar IA para realizar vigilância em massa de americanos (o que é ilegal), nem queremos usar IA para desenvolver armas autônomas que operem sem intervenção humana”, mas enfatizou: “Não permitiremos que NENHUMA empresa dite as regras de como tomamos decisões operacionais”.
Quais são as linhas vermelhas da Anthropic?
A Anthropic afirma estar disposta a continuar trabalhando com as agências de segurança nacional dos EUA, mas não irá eliminar duas restrições fundamentais sobre como seus sistemas são utilizados.
“As ameaças não mudam nossa posição: não podemos, em sã consciência, acatar o pedido deles”, disse Amodei em um comunicado na quinta-feira, acrescentando que as exigências do Pentágono “nunca foram incluídas em nossos contratos… e acreditamos que não devem ser incluídas agora”.

A empresa estabeleceu duas linhas vermelhas claras para sua IA, declarando que não apoiará a vigilância doméstica em massa nem armas totalmente autônomas. Ela argumenta que o monitoramento em larga escala de cidadãos americanos é “incompatível com os valores democráticos” e que os modelos atuais “não são confiáveis o suficiente” para tomar decisões letais sem controle humano.
Amodei insiste que essas exceções não impediram os militares dos EUA de usar o Claude para outras tarefas “críticas para a missão” e afirma que a empresa ainda quer apoiar a segurança nacional dos EUA, mas não ao custo de permitir vigilância em massa em território nacional ou assassinatos totalmente autônomos.
Será que a Anthropic sobreviverá à lista negra?
Amodei afirma que o Departamento de Guerra alertou que, se a Anthropic mantiver suas medidas de segurança, poderá ser removida dos sistemas militares e declarada como o já mencionado “risco à cadeia de suprimentos” – uma designação nunca antes aplicada a uma empresa americana.
Perder um contrato de até US$ 200 milhões não seria um problema existencial para a Anthropic, avaliada em quase US$ 400 bilhões, mas um rótulo como esse poderia ter um impacto muito maior. Qualquer empresa que faça negócios com o Pentágono teria que provar que seus próprios sistemas não dependem da tecnologia da Anthropic, o que poderia complicar ou inibir grandes negociações com empresas que também fornecem para as Forças Armadas dos EUA.
Para o Departamento de Guerra, romper os laços também seria custoso. Os funcionários teriam que substituir ferramentas internas construídas em torno do Claude. Uma fonte do Pentágono disse à mídia americana que o sistema de IA Grok, da xAI de Elon Musk, “está de acordo em ser usado em um ambiente confidencial”, mas reconheceu que o Grok não é considerado tão avançado quanto o modelo Claude da Anthropic.
Será que o Vale do Silício vai reagir?
A posição da desenvolvedora desencadeou uma onda incomum de apoio público no Vale do Silício. No final da quinta-feira, centenas de funcionários do Google e da OpenAI – duas das principais concorrentes da Anthropic, ambas fornecedoras de modelos de IA para as forças armadas dos EUA – assinaram uma carta aberta apoiando a recusa da empresa em atender às exigências do Pentágono.
A petição, intitulada “Não Seremos Divididos”, havia sido assinada publicamente por 421 funcionários do Google e 76 da OpenAI até sexta-feira. Citando uma reportagem da mídia americana, a carta acusa o Departamento de Guerra de visar a Anthropic por “manter-se firme em suas linhas vermelhas de não permitir que seus modelos sejam usados para vigilância doméstica em massa e para matar pessoas de forma autônoma, sem supervisão humana”.
“O Pentágono está negociando com o Google e a OpenAI para tentar convencê-los do que a Anthropic se recusou a fazer”, escreveram os signatários, alegando que as autoridades estão tentando “dividir cada empresa por medo de que a outra ceda”. A carta apela aos líderes das duas empresas para que “deixem de lado suas diferenças e se unam para continuar a recusar” as exigências do Departamento de Defesa.
O que esse confronto significa para a IA
O conflito entre a Anthropic e o Pentágono despertou o interesse de analistas de tecnologia e defesa, que alertam para a possibilidade de estabelecer precedentes sobre como a inteligência artificial avançada será regulamentada em futuros conflitos. Adam Connor, vice-presidente de política tecnológica do Center for American Progress, declarou à imprensa americana que a disputa provavelmente será interpretada por toda a indústria como um sinal de que as autoridades de defesa não desejam limites contratuais sobre como os usuários militares podem implantar modelos avançados.
LEIA MAIS: EUA integrarão a IA Grok de Musk em sistemas militares confidenciais – mídia
Se o Pentágono cumprir suas ameaças, observadores dizem que isso marcaria uma escalada histórica – transformando efetivamente um dos produtos de IA comercial mais avançados dos Estados Unidos em um pária dentro do próprio ecossistema de defesa. Gregory Allen, consultor sênior do Centro de Estudos Estratégicos e Internacionais, argumentou que tratar a Anthropic dessa forma seria como queimar uma das “joias da coroa” do setor tecnológico americano em um momento em que Washington compara a corrida pela IA com a China à corrida espacial com a União Soviética. Ele sugeriu que existem maneiras melhores de resolver a disputa do que a postura “absolutista” adotada pelo governo Trump.



