O Departamento de Guerra dos EUA teria entrado em conflito com a empresa contratada Anthropic devido a limitações éticas inerentes à sua tecnologia de ‘IA-Inteligência Artificial’. O Departamento de Guerra dos EUA está em disputa com a sua desenvolvedora de inteligência artificial Anthropic sobre restrições que limitariam a forma como os militares podem implantar sistemas de IA, inclusive para o direcionamento autônomo de armas e vigilância doméstica.
Fonte: Reuters – Rússia Today
A divergência paralisou um contrato avaliado em até US$ 200 milhões, já que autoridades militares se opõem ao que consideram limites excessivos impostos pela empresa Anthropic sediada em São Francisco ao uso de sua tecnologia pelos militares, informou a Reuters, citando seis pessoas familiarizadas com o assunto.
A Anthropologie manifestou preocupação com o fato de suas ferramentas de IA poderem ser usadas para realizar operações letais sem supervisão humana suficiente ou para vigiar cidadãos americanos, disseram fontes à Reuters.
No entanto, autoridades do Pentágono argumentaram que os sistemas comerciais de IA devem ser implantáveis para fins militares, independentemente das políticas de uso internas de uma empresa, desde que estejam em conformidade com a legislação dos EUA.
A disputa surge em meio a uma iniciativa mais ampla do governo Trump para integrar rapidamente o uso da inteligência artificial nas forças armadas. No início deste mês, o Departamento de Guerra delineou uma nova estratégia com o objetivo de transformar as forças armadas dos EUA em uma força de combate “prioritariamente orientada para [PELA] a IA” .
O Pentágono acredita que deve manter o controle total sobre como as ferramentas de IA são empregadas no campo de batalha e em operações de inteligência, com o Secretário de Defesa Pete HegSETH prometendo não usar modelos que “não permitam que se lutem guerras”.

Um porta-voz da Anthropic afirmou que a IA da empresa é “amplamente utilizada em missões de segurança nacional pelo governo dos EUA” e que a empresa mantém “discussões produtivas com o Departamento de Guerra sobre maneiras de dar continuidade a esse trabalho”. O Pentágono ainda não se pronunciou sobre o suposto desentendimento.
O diretor executivo da Anthropic, Dario Amodei, alertou repetidamente sobre os perigos do uso irrestrito da IA, particularmente na vigilância em massa e em sistemas de armas totalmente autônomos. Em um ensaio recente, ele argumentou que a IA deveria apoiar a defesa nacional “em todos os aspectos, exceto naqueles que nos tornariam mais parecidos com nossos adversários autocráticos”.
RELACIONADO: CEO da Anthropic Emite Alerta sobre o “Poder Inimaginável” da IA
O impasse representa riscos para a Anthropic, que investiu pesadamente na conquista de clientes governamentais e de segurança nacional e está se preparando para uma possível oferta pública inicial de ações. A empresa foi uma das várias grandes desenvolvedoras de IA, juntamente com a OpenAI, o Google e a xAI de Elon Musk, que receberam contratos do Pentágono no ano passado.
Em um ensaio em seu blog pessoal, o CEO da Anthropic, Dario Amodei, alertou esta semana que a IA deve apoiar a defesa nacional “de todas as maneiras, exceto aquelas que nos tornariam mais parecidos com nossos adversários autocráticos”.
Amodei estava entre os cofundadores da Anthropic que criticaram os tiroteios fatais contra cidadãos dos EUA que protestavam contra as ações de fiscalização da imigração em Minneapolis, o que ele descreveu como um “horror” em um post no X.,, As mortes aumentaram a preocupação entre alguns no Vale do Silício sobre o uso de suas ferramentas pelo governo para possível violência contra a população civil.



