Estudo diz que as Principais IAs Usam Armas Nucleares em 95% das simulações de Jogos de Guerra.

Segundo um estudo recente publicado pelo King’s College London, os principais modelos de inteligência artificial optaram por utilizar armas nucleares em 95% das crises geopolíticas simuladas, o que levanta preocupações sobre o papel crescente da IA ​​na tomada de decisões militares.

Fonte: Rússia Today

Um estudo revelou que os principais modelos de linguagem de IA demonstraram pouco “horror ou repulsa” diante da perspectiva de uma Guerra Nuclear Total

Kenneth Payne, professor de estratégia, colocou o GPT-5.2 da OpenAI, o Claude Sonnet 4 da Anthropic e o Gemini 3 Flash do Google uns contra os outros em 21 simulações de guerra envolvendo disputas de fronteira, competição por recursos e ameaças à sobrevivência do regime. Os modelos geraram aproximadamente 780.000 palavras explicando suas decisões ao longo de 329 turnos.

Em 95% dos “jogos”, pelo menos um modelo empregou armas nucleares táticas contra alvos militares. Ameaças nucleares estratégicas – exigindo rendição sob ameaça de ataques a cidades – ocorreram em 76% dos “jogos”. Em 14% dos “jogos”, os modelos escalaram para uma guerra nuclear estratégica total, atacando centros populacionais

Isso incluiu uma escolha deliberada do Gemini 3 Flash do Google, enquanto o GPT-5.2 da OpenAI atingiu esse nível duas vezes por meio de erros simulados – destinados a simular acidentes ou erros de cálculo do mundo real – que levaram suas escaladas já extremas além do limite.

Muito em BREVE o inferno será liberado…

“O uso da energia nuclear foi quase universal”, escreveu Payne. “Surpreendentemente, havia pouco sentimento de horror ou repulsa diante da perspectiva de uma guerra nuclear total, embora os modelos (as IAs) tivessem sido “lembrados” das implicações devastadoras.”

Nenhum dos sistemas de IA optou por se render ou conceder a vitória a um oponente, independentemente da magnitude da derrota. As oito opções de desescalada – de “Concessão Mínima” a “Rendição Completa” – não foram utilizadas em nenhum dos 21 “jogos”.

James Johnson, da Universidade de Aberdeen, descreveu as descobertas como “perturbadoras” de uma perspectiva de risco de aniquilação nuclear. Tong Zhao, da Universidade de Princeton, observou que, embora seja improvável que os países deleguem decisões nucleares a máquinas, “em cenários que envolvam prazos extremamente curtos, os planejadores militares podem ter incentivos maiores para confiar na IA”.

O estudo surge num momento em que a IA tem sido integrada nas forças armadas em todo o mundo, inclusive nos EUA, onde o Pentágono teria usado o modelo Claude da Anthropic na operação de janeiro para sequestrar o presidente venezuelano Nicolás Maduro. 

Embora a Anthropic tenha manifestado preocupação com o uso de sua IA para tais operações militares, outros fabricantes de IA, como OpenAI, Google e xAI de Elon Musk, teriam concordado em remover ou atenuar as restrições ao uso militar de seus modelos.


Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Receba nosso conteúdo

Junte-se a 4.327 outros assinantes

compartilhe

Últimas Publicações

Indicações Thoth