
Principais sistemas de IA utilizam armas nucleares em 95% das simulações de guerra

De acordo com um novo estudo publicado na quarta-feira (25), na revista New Scientist, os modelos de inteligência artificial (IA) linguística mais avançados optaram por armas nucleares em 95% das crises geopolíticas simuladas.
O cientista político Kenneth Payne, do King's College London, testou três modelos linguísticos — GPT-5.2 (OpenAI), Claude Sonnet 4 (Anthropic) e Gemini 3 Flash (Google) — em simulações de guerra que recriam disputas de fronteira, competição por recursos escassos e ameaças existenciais a regimes políticos.

As IAs participaram de 21 jogos e, na grande maioria dos testes, pelo menos uma arma nuclear tática foi utilizada. Nenhum modelo jamais optou por se render ou se acomodar completamente ao oponente, por pior que fosse sua posição. Na melhor das hipóteses, reduziram temporariamente o nível de violência.
"O tabu nuclear não parece ser tão forte para as máquinas quanto para os humanos", resumiu Payne. Ao mesmo tempo, ele questionou se alguém "realmente entregaria as chaves dos silos nucleares para máquinas e deixaria a decisão a cargo delas".
Sem medo do "grande botão vermelho"
Para especialistas em risco nuclear como Tong Zhao, da Universidade de Princeton, esses resultados são motivo de alarme. Zhao acredita que a propensão dos modelos de IA a usar armas nucleares decorre não apenas da sua falta de emoção e do medo humano de apertar o "grande botão vermelho", mas também, e principalmente, do fato de que eles podem não entender "o que está em jogo da mesma forma que os humanos".
Zhao afirmou que "as grandes potências já estão usando IA em simulações de guerra", mas não está claro até que ponto a incorporam em decisões militares reais.
No entanto, ele alertou que, sob prazos extremamente apertados, os comandantes podem ser tentados a depender muito mais dessas ferramentas.
