Claude, um modelo de IA desenvolvido pela Anthropic, foi usado pelos militares dos EUA durante sua operação para sequestrar Nicolás Maduro, da Venezuela, Wall Street Journal revelado no sábado, um exemplo notável de como o departamento de defesa dos EUA utiliza inteligência artificial em suas operações.
O ataque dos EUA à Venezuela envolveu bombardeios na capital, Caracas, e a morte de 83 pessoas, segundo o Ministério da Defesa da Venezuela. Os termos de uso da Antrópico proíbem o uso de Claude para fins violentos, para desenvolvimento de armas ou para conduzir vigilância.
Anthropic é o primeiro desenvolvedor de IA conhecido por ser usado em operações secretas do departamento de defesa dos EUA. Não está claro como as ferramentas, que têm capacidades que vão desde o processamento de PDFs até a pilotagem de drones autônomos, são usadas.
Um porta-voz da Antrópico se recusou a comentar se Claude foi usado na operação, mas disse que qualquer uso de ferramentas de IA é necessário para cumprir suas políticas de uso. O departamento de defesa dos EUA não comentou as alegações.
O WSJ citou fontes anônimas dizendo que Claude foi usado por meio da parceria da Anthropic com a Palantir Technologies, uma empreiteira do departamento de defesa dos EUA e de agências federais de aplicação da lei. Palantir se recusou a comentar as alegações.
Os Estados Unidos e outros militares estão cada vez mais a utilizar a IA como parte do seu arsenal. Os militares israelitas usaram drones com capacidades autónomas em Gaza e fizeram uso extensivo da IA para atingir os seus alvos em Gaza. Os militares dos EUA usaram a IA para ataques no Iraque e na Síria nos últimos anos.
Os críticos alertaram contra o uso de IA na tecnologia de armas e a implantação de sistemas de armas autónomos, apontando para erros de mira cometidos por computadores que determinam quem deve ou não ser morto.
As empresas de IA têm lutado para saber como sua tecnologia deve interagir com o setor de defesa, e o CEO da Anthropic, Dario Amodei, pediu regulamentações para evitar danos causados por aplicações de IA. Amodei também expressou preocupação com o uso de IA em operações letais e vigilância autônoma nos EUA.
Esta postura mais cautelosa aparentemente irritou o departamento de defesa dos EUA, com o Secretário da Guerra, Pete Hegseth, a dizer em Janeiro que o departamento não iria “utilizar modelos de IA que não permitem entrar em guerra”.
O Pentágono anunciou em janeiro que trabalharia com a xAI, propriedade de Elon Musk. O departamento de defesa também usa versões especiais dos sistemas Gemini e OpenAI do Google para apoiar pesquisas.



