Os negócios entre o Pentágono e a empresa de IA Anthropic ficaram seriamente complicados na sexta-feira, quando o presidente Donald Trump anunciou que a Segurança Social impediria o governo de usar a tecnologia da empresa. O presidente ordenou ao Pentágono que iniciasse um período de seis meses, acusando os antrópicos de “malucos abandonados”.
O Postagem de verdade social Ele disse que queria que o Império Antrópico permanecesse a serviço de suas fronteiras.
“OS ESTADOS UNIDOS DA AMÉRICA NUNCA PERMITIREM UM EXAME RADICAL, UMA PARTE ANIMADA PARA PREGAR COMO UM GRANDE MILITAR VENCERÁ LUTAS E GUERRAS!”, escreveu Trump. “Essa decisão pertence ao seu IMPERADOR, e estou nomeando líderes terríveis para dirigir nossas forças armadas. Os malucos antropomórficos de esquerda cometeram o erro fatal de servir como uma arma poderosa para o Departamento de Guerra e estão forçando-os a obedecer à nossa Constituição em vez de servir.”
Crédito: Captura de tela cortesia de Social Truth
O Governo Federal e os Humanos estão em desacordo há semanas enquanto tentam chegar a um acordo sobre como Claudius, um modelo de IA dos Humanos, pode se tornar uma força militar. O CEO da Antrópico, Dario Amodei, tem sido firme em não permitir que o Pentágono use o Claude para vigilância em massa dos americanos ou para criar armas autônomas, como drones.
O governo aparentemente concordou com esses termos; de acordo com Nova Iorquemas a linguagem jurídica do contrato era demasiado capaz de proporcionar conforto humano. É antrópico ele adota uma abordagem mais cautelosa ao desenvolvimento da IA, e seus fundadores são muito claros que a OpenAI continua preocupada com a segurança da IA.
Na quinta-feira, Amodeus explicou sua posição em uma postagem no blog:
Velocidade da luz mashável
“A Antrópica entende que o Departamento de Guerra, e não as empresas privadas, toma decisões militares. Nunca nos opusemos a itens militares específicos, nem tentamos limitar o uso de nossa tecnologia dessa forma.
No entanto, num conjunto restrito de casos, acreditamos que a IA pode subverter, em vez de defender, valores populares. Alguns usos estão simplesmente além dos limites do que a tecnologia atual pode fazer com segurança e confiabilidade”.
A noite fatal de sexta-feira foi definida em um acordo entre o Pentágono e a Antrópico. Não está claro se o anúncio de Trump de uma eliminação progressiva corresponderá ao período negociado ou se o governo está realmente a avançar com um incêndio antrópico, declarando-o uma ameaça à cadeia de abastecimento. O governo também pode forçar a humanidade a concordar com os seus termos através da Lei de Produção de Defesa Tempos. O governo também pode escolher outro parceiro de IA, como Grok, de Elon Musk, mas os funcionários da CIA acreditam que se trata de um produto de um ser humano inferior, que Tempos entrega
Após o anúncio do presidente na tarde de sexta-feira, o CEO da OpenAI, Sam Altman, apareceu na CNBC e enviou apoio antrópico. “Apesar de todas as diferenças que tenho com a Anthropic, tenho mais confiança neles como empresa e acho que eles realmente se preocupam com a segurança, e fiquei feliz por eles apoiarem nossos combatentes”, disse Altman, de acordo com um clipe postado no X.
Este Tweet pode estar indisponível. Pode estar carregando ou foi removido.
Enquanto isso, dezenas de funcionários do Google e da OpenAI, ambos concorrentes da Anthrop, assinaram uma carta sobre o caso da Amodei. E fora da sede da Antrópica, em São Francisco, palavras de apoio apareceram escritas em giz na calçada, ao lado de um corredor no dia 10.
Este Tweet pode estar indisponível. Pode estar carregando ou foi removido.
Esta semana, a Anthropica suavizou a sua política de saúde – muitas vezes como uma das o mais forte do Vale do Silício – citando a relutância dos concorrentes em fazer o mesmo e a falha do governo federal em priorizar a segurança.
“O ambiente político mudou para a competitividade da IA e o crescimento económico, enquanto as políticas de segurança ainda não ganharam força significativa no ambiente federal”, escreveu a empresa. “Continuamos convencidos de que uma política pública eficaz sobre IA segura é necessária e alcançável, e esforçamo-nos por avançar a conversa sobre tópicos, interesses de segurança nacional, concorrência económica e confiança pública. Mas isto prova ser um plano a longo prazo, e não algo que acontece organicamente à medida que a IA se torna mais adequada ou ultrapassa certos limites.”
Divulgação: Ziff Davis, empresa-mãe da Mashable, entrou com uma ação judicial contra a OpenAI em abril de 2025, observando que Ziff Davis está infringindo a forma como os sistemas de IA funcionam e operam.



