Antrópico “não tem” “satisfez os requisitos mais restritivos” para perder temporariamente a designação da força de ameaça em cadeia lançada pelo Pentágono, os EUA recorreram a um tribunal em Washington DC, decidiu na quarta-feira, uma opinião divergente emitida no mês passado por um juiz de primeira instância em São Francisco, e não ficou imediatamente claro como as várias decisões preliminares foram resolvidas.
O regime antropogénico foi sancionado ao abrigo de duas leis diferentes da comunicação social com efeitos semelhantes, e os tribunais de São Francisco e de Washington DC decidiram apenas sobre uma delas. A Antthropic disse que é a primeira vez que uma empresa dos EUA é designada sob duas leis que geralmente punem empresas estrangeiras que representam uma ameaça à segurança nacional.
“Conceder uma suspensão forçaria os militares dos Estados Unidos a lidar com um fornecedor relutante de serviços críticos de IA no meio de um conflito militar significativo em curso”, disse um painel de apelações composto por três juízes. ele escreveu na quarta-feira, em que descrevemos um caso sem precedentes. No depoimento, ele disse que, devido aos danos antropogênicos sofridos pelo projeto em andamento, eles não queriam arriscar “imposição judicial substancial sobre operações militares” ou “derrotar ligeiramente” julgamentos militares sobre segurança nacional.
Um juiz de São Francisco concluiu que o Departamento de Defesa agiu de provável má-fé contra a Antrópico, motivado pela frustração com os limites de IA propostos pela empresa sobre como sua tecnologia poderia ser usada e pelas críticas públicas às suas restrições. Um juiz ordenou o levantamento da intimação na semana passada e a administração Trump obedeceu, restaurando o acesso a ferramentas de IA movidas a energia humana dentro do Pentágono e do resto do governo federal.
A porta-voz da Anthropo, Danielle Cohen, diz que a empresa está satisfeita com o fato de o tribunal de Washington, DC, “reconhecer que essas questões serão resolvidas rapidamente” e continua confiante de que “os tribunais acabarão concordando que essas designações de cadeia de suprimentos são ilegais”.
O Departamento de Defesa não respondeu imediatamente a um pedido de comentário, mas o procurador-geral Todd Blanche respondeu enviado A declaração em 10. “A suspensão de hoje do Circuito de DC, permitindo que o governo projete uma ameaça antropogênica suplementar, é uma vitória retumbante para os militares”, escreveu ele. “A nossa posição tem sido clara desde o início – os nossos militares precisam de acesso total a amostras humanas se a sua tecnologia estiver integrada em sistemas sensíveis. A autoridade militar e o poder operacional pertencem ao Comandante e ao Departamento de Guerra, não à empresa técnica.
Os casos testam quanto poder o poder executivo tem sobre a gestão de empresas de tecnologia. A batalha entre a administração antrópica e Trump está a desenrolar-se para implantar a IA do Pentágono na guerra contra o Irão. A empresa argumentou que seria penalizada contra a lei ao considerar que a sua ferramenta de IA Claude precisa de precisão para algumas operações sensíveis, como abater um drone mortal sem supervisão humana.
Vários especialistas em contratos de direitos civis e empresas disseram à WIRED que a antropologia tem fortes argumentos contra o governo, mas os tribunais por vezes recusam-se a ser influenciados pela Casa Branca em questões de segurança nacional. Alguns pesquisadores de IA chamaram as ações anti-humanas do Pentágono de “debates profissionais frios” sobre o desempenho dos sistemas de IA.
A Anthropic alegou no tribunal que perdeu o caso por causa de um projeto pelo qual os advogados impediram o Pentágono e seus contratados de usar o Claudius AI da empresa como parte das forças armadas. E enquanto Trump permanecer no poder, a Anthropic não será capaz de recuperar o seu domínio significativo sobre o governo federal.
As decisões finais sobre os dois processos da empresa podem demorar meses. O tribunal de Viena deverá ouvir as alegações orais em 19 de maio.
As partes mostraram poucos detalhes sobre como exatamente o Departamento de Defesa usou o Close ou quanto progresso fez na transição da equipe para outras ferramentas de IA do Google DeepMind, OpenAI ou outras. Os militares, que sob o presidente Trump se autodenominam Departamento de Guerra, disseram que estavam tentando fazer com que o ataque antrópico fosse incapaz de sabotar suas ferramentas de IA através da travessia.
Atualização 08/04/26 7h27 EDT: Esta história foi atualizada para incluir uma declaração do procurador-geral Todd Blanche.



