Os representantes Ted Lieu (D-Califórnia), Christopher Hale e outros expressaram frustração depois que o Departamento do Exército assinou um novo contrato com a OpenAI que parecia adotar termos anteriormente buscados pelo agora banido Antrópico.
“O Departamento de Defesa acaba de concordar com as mesmas duas condições para a OpenAI que a Anthropic estava pedindo”, escreveu o congressista da Califórnia a X. “Alguém pode me explicar isso?
“Acabei de cancelar o ChatGPT e comprei Claude Pro Max”, disse Hale, político e delegado do DNC, em resposta à notícia. Ele acrescentou: “Um defenderá os direitos dados por Deus ao povo americano e o outro sucumbirá à tirania”.
Mas Lew e Hale não estavam sozinhos na sua confusão e raiva, já que Emil Michael, o subsecretário de investigação e tecnologia do Exército, emergiu como um apoiante vocal do acordo.
“Quando se trata de questões de vida ou morte para combatentes, ter um parceiro confiável e estável que esteja disposto a trabalhar de boa fé faz toda a diferença à medida que entramos na era da IA”, escreveu Michael para X. “Forward (Sam Altman)”.
Esses comentários vêm na esteira do CEO da OpenAI, Sam Altman. X confirmado na sexta-feira “Chegamos a um acordo com o Departamento do Exército para implantar nossos modelos em redes classificadas”, afirmou a empresa em comunicado.
“Em todas as nossas interações, a DoW demonstrou um profundo respeito pela segurança e um desejo de fazer parceria para alcançar os melhores resultados possíveis”, continuou Altman. “A segurança da IA e a partilha mais ampla de benefícios são fundamentais para a nossa missão. Dois dos nossos princípios de segurança mais importantes são a proibição da vigilância doméstica em massa e a responsabilidade humana pelo uso da força, incluindo sistemas de armas autónomos. O DoW concorda com estes princípios e reflete-os nas nossas leis e políticas, e nós incluímo-los nos nossos acordos.”
Altman também disse que a OpenAI “criará salvaguardas técnicas para garantir que nossos modelos se comportem conforme o esperado, que é o que o DoW também queria”.
Mas não demorou muito para que os líderes de pensamento acima mencionados e outros opinassem sobre esta informação mais recente, visto que Altman disse anteriormente na manhã de sexta-feira que simpatiza com as “linhas vermelhas” da Anthropic quando se trata de restringir o uso militar da IA. (Para aqueles que estão se perguntando, o presidente Donald Trump viu a posição da Anthropic, rotulando a Anthropic como um “trabalho maluco de esquerda” no Truth Social, acrescentando: “Portanto, estou instruindo todas as agências federais do governo dos Estados Unidos a parar imediatamente de usar a tecnologia da Anthropic. Não precisamos disso. Não queremos isso. Nunca mais faremos negócios com eles!”
Continue lendo para um resumo das reações às notícias.
O Departamento de Defesa acaba de concordar com as mesmas duas condições com a OpenAI que a Antrópica buscava.
Alguém pode explicar? Eu realmente não sei. https://t.co/eLH6VBSv9q
-Ted Lieu (@tedlieu) 28 de fevereiro de 2026
Cancelei o ChatGPT e comprei o Claude Pro Max.
O homem defende os direitos dados por Deus ao povo americano. O outro sucumbe ao tirano. https://t.co/re3h2rXEaK
-Christopher Hale (@ChristopherHale) 28 de fevereiro de 2026
Quando se trata de questões de vida ou morte para os combatentes, ter um parceiro confiável e estável que atue com integridade fará toda a diferença à medida que entramos na era da IA. de agora em diante @mesmo ! https://t.co/dnRnyw3sfl
— Subsecretário do Exército Emile Michael (@USWREMichael) 28 de fevereiro de 2026
Estou ficando cada vez mais confuso e chateado com tudo que está acontecendo aqui. https://t.co/TJe7XtT1cX
-Tim Carney (@TPCarney) 28 de fevereiro de 2026
Então… A Anthropic foi colocada na lista negra pelo mesmo motivo que a OpenAI acabou de escrever a linha vermelha em seu contrato?
Ou a OpenAI apenas aceitou uma versão mais fraca da linha vermelha que a Anthropic não assinaria? https://t.co/jSTO42BqTo
-Deirdre Botha (@dee_bosa) 28 de fevereiro de 2026
Para evitar dúvidas, OpenAI – @DeptofWar O acordo decorre da pedra de toque “todos os usos legais” que o DoW corretamente defendeu e com a qual a xAI concordou. Mas, como Sam explicou, refere-se a certas autoridades legais existentes e inclui certas autoridades mutuamente acordadas… https://t.co/boVlh5kgfc
– Secretário Sênior Jeremy Lewin (@UnderSecretaryF) 28 de fevereiro de 2026
Humanidade (Nível 1): Juntamente com Claude, não nos envolvemos na vigilância em massa de cidadãos americanos.
OpenAI (Camada 3): Vamos lá! ✋
XAI (Camada 4): Vamos lá! ✋
Remova ChapGPT e Grok do seu telefone.
-Amy Siskind 🏳️🌈 (@Amy_Siskind) 28 de fevereiro de 2026
Então, isso significa que a OpenAI tem um contrato com o Departamento de Defesa e está aderindo às mesmas proteções que a Anthropic queria? https://t.co/L4gkhvEdnf
-Hadas Gold (@Hadas_Gold) 28 de fevereiro de 2026
A Anthropic pediu que seu modelo não fosse usado para robôs assassinos totalmente autônomos ou para vigilância em massa de cidadãos americanos. O Pentágono virou-se e puniu-os, por isso, naturalmente, estes idiotas malucos viram uma oportunidade de ganhar mais dinheiro. https://t.co/WFSr4TAo9J
-Tommy Vietor (@ TVietor08) 28 de fevereiro de 2026
Então agora estou realmente confuso. @OpenAI Consegui que Hegseth concordasse com os mesmos dois princípios. @antrópicaAI Era isso que você estava procurando? Alguém pode explicar esse resultado? https://t.co/WjmMT7EyT7
-Michael McFaul (@McFaul) 28 de fevereiro de 2026
Há apenas algumas horas, ele estava na TV dizendo que apoia a humanidade.
Ele então os enfraquece e recebe o mesmo contrato que a Antrópico acabou de perder.
Como alguém poderia confiar nessa pessoa? https://t.co/xwBd4OSW7t
-Mark Gadala-Maria (@markgadala) 28 de fevereiro de 2026
Deixe-me ser claro.
– Dario mostrou integridade e queria o acordo X, mas falhou
– Sam mentiu e não mostrou honestidade, mas (quase) conseguiu o acordo X
– O governo disse que o Acordo https://t.co/1GVww2U6y6-Gary Marcus (@GaryMarcus) 28 de fevereiro de 2026
A partir desta noite, existem dois Frontier AI Labs com modelos aprovados para uso em sistemas militares classificados.
Uma das empresas foi declarada uma ameaça à segurança nacional ao nível da Huawei porque insistiu que os seus modelos não seriam utilizados para vigilância doméstica em massa ou para condução totalmente autónoma…
-Kevin Roose (@kevinroose) 28 de fevereiro de 2026


