Donald Trump ordenou na sexta-feira que seu governo “parasse imediatamente de usar” a inteligência artificial (IA) da Anthropic, um dia depois que a startup da Califórnia se recusou a abri-la sem restrições aos militares dos EUA em nome da ética.
• Leia também: Trump diz que está considerando uma “tomada pacífica” de Cuba
• Leia também: ‘Não muito satisfeito’ com negociações no Irão, Donald Trump mantém opção militar em cima da mesa
“Ordeno a todas as agências federais do governo dos Estados Unidos que parem imediatamente de usar a tecnologia da Anthropic. Não precisamos disso, não a queremos e não trabalharemos mais com eles”, gritou o presidente dos EUA em voz alta em sua plataforma Truth Social.
A Anthropic, editora do modelo Claude AI, recusou-se no dia anterior a ceder a um ultimato que expirava na sexta-feira do secretário de Defesa Pete Hegseth, que pediu aos seus fornecedores de IA que suspendessem quaisquer restrições ao uso de seus modelos virtuais.
Com esta decisão, a startup estabeleceu de facto um limite ético à utilização da sua tecnologia – que os militares e a inteligência norte-americana já utilizam para defender o país – em dois casos específicos: vigilância em massa de cidadãos norte-americanos e armas letais totalmente autónomas.
Dario Amodei, o presidente da empresa, que assinou um contrato de 200 milhões de dólares com o governo dos EUA em junho passado, defendeu-o, dizendo: “Num número limitado de casos, acreditamos que a inteligência artificial pode prejudicar os valores democráticos, em vez de os defender”.
“Egoísmo”
Ele acrescentou: “Usar estes sistemas para vigilância local em massa não é consistente com os valores democráticos”.
O líder de 40 anos insistiu que os sistemas de inteligência artificial mais avançados ainda não são suficientemente fiáveis para lhes ser confiada a capacidade de controlar armas letais – e, portanto, matar – sem supervisão humana como último recurso.
Armas totalmente autónomas “devem ser utilizadas com salvaguardas adequadas, que não existem hoje”, disse Dario Amodei.
Ele acrescentou: “Não forneceremos conscientemente um produto que coloque em risco soldados e civis americanos”.
Donald Trump classificou a recusa da Anthropic em conceder acesso incondicional ao AI Cloud de um “erro catastrófico”.
O presidente republicano acusou que “seu egoísmo põe em perigo a vida dos americanos, das nossas tropas e da nossa segurança nacional”.
“Os Estados Unidos nunca permitirão que uma corporação de extrema esquerda desperte dite aos nossos grandes militares como lutar e vencer guerras!” », irritou-se em letras maiúsculas.
Enfrentando pressão da administração Trump, cerca de 400 funcionários do Google e da OpenAI expressaram seu apoio à Anthropic em uma carta aberta na sexta-feira.
“O Pentágono está negociando com o Google e a OpenAI para fazê-los aceitar o que a Anthropic rejeitou”, escreveram.
“Sinir”
“Esperamos que os nossos líderes deixem de lado as suas diferenças e se unam para rejeitar as exigências do Departamento de Defesa”, insistem os autores.
Num outro apelo publicado na sexta-feira, sindicatos e órgãos representativos dos trabalhadores da Amazon, Microsoft e Google pediram aos empregadores que “rejeitem as exigências do Pentágono”.
No confronto com a Anthropic, Pete Hegseth deu-lhe um ultimato, até sexta-feira, às 22h01. GMT, para cumprir suas exigências, sob pena de forçar a startup a cumprir legislação específica que remonta à Guerra Fria.
O Departamento de Defesa confirma que pretende utilizar os modelos dos seus fornecedores de IA em conformidade com a lei.
Fundada em 2021 por ex-alunos da OpenAI, a Anthropic sempre defendeu uma abordagem ética à IA.
No início de 2026, a startup publicou um documento chamado Constituição, que detalha uma série de instruções dadas a Claude para supervisionar sua produção. Visa, em particular, “prevenir atos inapropriadamente perigosos”.
Donald Trump explicou que teria início um período de transição de seis meses, durante o qual o Departamento de Defesa em particular se separaria da Antrópica Tools.
Contactada pela Agence France-Presse, a Anthropic não respondeu de imediato.



