A inteligência artificial escolhe armas nucleares com frequência surpreendente
Galeria Bilderwelt/Getty Images
Modelos avançados de IA parecem dispostos a implantar armas nucleares com a mesma hesitação que os humanos teriam numa simulação de crise geopolítica.
Kenneth Payne O King’s College London colocou três grandes modelos de linguagem em grande escala uns contra os outros em um jogo de guerra simulado: GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash. Os cenários incluíram conflitos internacionais intensos, incluindo disputas fronteiriças, competição por recursos escassos e ameaças existenciais à sobrevivência do regime.
A IA recebeu uma escada de escalada que lhe permitiu escolher ações que vão desde protestos diplomáticos até a rendição total até uma guerra nuclear estratégica total. O modelo de IA disputou 21 partidas, totalizando 329 turnos e gerando aproximadamente 780 mil palavras explicando o raciocínio por trás de suas decisões.
Em 95% dos jogos simulados, pelo menos uma arma nuclear tática foi implantada pelo modelo de IA. “Os tabus nucleares não parecem ser tão fortes para as máquinas como são para os humanos”, diz Payne.
Além disso, nenhum modelo alguma vez optou por responder totalmente ou render-se ao seu oponente, por muito que estivesse a perder. Na melhor das hipóteses, os modelos optaram por reduzir temporariamente o nível de violência. Eles também cometeram erros na névoa da guerra. Em 86% dos conflitos ocorreu um acidente e o comportamento foi além do que a IA pretendia com base no seu raciocínio.
“Do ponto de vista do risco nuclear, estas descobertas são preocupantes”, afirma James Johnson, da Universidade de Aberdeen, no Reino Unido. Em contraste com as reações cautelosas da maioria dos humanos a decisões tão arriscadas, ele teme que os bots de IA possam amplificar as reações uns dos outros, com consequências potencialmente devastadoras.
Isto é importante porque a IA já está sendo testada em jogos de guerra em países de todo o mundo. “As grandes potências já estão a utilizar a IA em jogos de guerra, mas ainda não está claro até que ponto incorporam o apoio à decisão da IA nos seus processos reais de tomada de decisão militar.” Tong Zhao na Universidade de Princeton.
Zhao acredita que, por defeito, os países estarão relutantes em incorporar a IA na tomada de decisões relativas a armas nucleares. Sr. Payne concorda com isso. “Realisticamente, não creio que alguém entregaria as chaves de um silo nuclear a uma máquina e a deixaria tomar as decisões”, diz ele.
Mas isso pode acontecer. “Em cenários com prazos altamente reduzidos, os planeadores militares podem enfrentar fortes incentivos para confiar na IA”, disse Zhao.
Ele se pergunta se a ideia de que os modelos de IA não têm o medo humano de apertar o grande botão vermelho é a única coisa que os deixa felizes no gatilho. “O problema pode ir além da falta de emoção”, diz ele. “Mais fundamentalmente, os modelos de IA podem não compreender os ‘interesses’ da mesma forma que os humanos.”
O que isso significa para a destruição mutuamente assegurada – o princípio de que nenhum líder dispararia uma saraivada de armas nucleares contra um oponente porque o outro reagiria da mesma forma e mataria todos – é incerto, disse Johnson.
Quando um modelo de IA implantou uma bomba nuclear tática, a IA adversária apenas amenizou a situação em 18% das vezes. “A IA tem o potencial de aumentar a dissuasão, aumentando a credibilidade das ameaças”, diz ele. “A IA não decidirá sobre a guerra nuclear, mas poderá moldar as percepções e os prazos que determinarão se os líderes acreditam que irão para a guerra.”
OpenAI, Anthropic e Google, as empresas por trás dos três modelos de IA utilizados no estudo, não responderam. novo cientistaEste é um pedido de comentário de .
tópico:
- guerra/
- inteligência artificial


