Início NOTÍCIAS Trabalhadores de tecnologia estão pedindo ao DOD e ao Congresso que retirem...

Trabalhadores de tecnologia estão pedindo ao DOD e ao Congresso que retirem o rótulo antropogênico da cadeia de abastecimento

23
0

Centenas de trabalhadores de tecnologia se inscreveram uma carta aberta Ele instou o Departamento de Defesa a retirar a sua designação antropogénica como “ameaça à cadeia de abastecimento”. A carta também pede ao Congresso que “examine se o uso desses poderes extraordinários é contra a tecnologia americana”.

Os signatários das cartas das principais empresas de tecnologia e capital de risco incluem OpenAI, Slack, IBM, Cursor, Salesforce Ventures e muito mais. A disputa entre o DOD e a Anthropic ocorre depois que o laboratório de IA se recusou na semana passada a dar aos militares acesso gratuito aos seus sistemas de IA.

Duas das linhas vermelhas da Anthrop nas negociações com o Pentágono eram que não queria que a sua tecnologia fosse utilizada para vigilância em massa de americanos ou para alimentar armas autónomas que tomassem decisões de selecção de alvos e disparos sem um humano a bordo. O DOD disse que não planeja fazer nenhuma dessas coisas, mas as regras do fornecedor podem não ser finalizadas.

Em resposta à recusa do CEO da Anthropica, Dario Amodei, em enfrentar as ameaças de Hegseth, o presidente Donald Trump instruiu na sexta-feira as agências federais a pararem de usar a tecnologia da Anthropica após um período de transição de seis meses. Hegseth disse que cumpriria as suas ameaças e designaria o risco antropogénico da cadeia de abastecimento – uma designação normalmente reservada a adversários estrangeiros que autorizariam uma empresa de IA a trabalhar com qualquer agência ou empresa que faça negócios com o Pentágono.

Em um depois de sexta-feiraHegseth escreveu: “Com efeito imediato, nenhum empreiteiro, fornecedor ou parceiro que faça negócios militares com as forças armadas dos Estados Unidos poderá conduzir qualquer atividade comercial com os Estados Unidos.”

Mas uma bicicleta com mais de 10 anos não coloca necessariamente em perigo a cadeia de abastecimento humana. O governo deve concluir uma avaliação de risco e informar o Congresso antes que os seus parceiros militares cortem relações com produtos antropogénicos ou com os seus produtos. Antrópico disse em um postagem no blog pretendia ser “legalmente sólido” e “desafiar qualquer cadeia de abastecimento no julgamento da concepção do risco”.

Muitos na indústria veem o tratamento dado ao manejo antrópico como uma retaliação dura e óbvia.

Coisa tecnológica

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

“Quando as duas partes não conseguem chegar a acordo sobre os termos, o curso normal pode se separar e trabalhar com um concorrente”, diz a carta aberta. “Esta situação estabelece um precedente perigoso. Punir uma empresa americana por se recusar a aceitar alterações contratuais envia uma mensagem clara a todas as empresas de tecnologia na América: sejam quais forem as condições que o governo exigir, ou enfrentaremos retaliação.”

Sem se preocuparem com a mais dura manipulação humana do governo, muitos na indústria ainda estão preocupados com a potencial evasão governamental e com a utilização da IA ​​para fins nefastos.

Boaz Barac, pesquisador da OpenAI ele escreveu em uma postagem na mídia social na segunda-feira, que usou comandos de bloqueio de IA para realizar vigilância em massa, incluindo sua “linha vermelha pessoal” e “tudo deveria ser nosso”.

Momentos depois de Trump atacar publicamente a Anthropic, a OpenAI anunciou que havia chegado a um acordo próprio para implantar seus modelos em um ambiente DOD. O CEO da OpenAI, Sam Altman, disse na semana passada que a empresa tem as mesmas linhas vermelhas que os humanos.

“Se algo de bom pode resultar dos acontecimentos da semana passada, é se tivermos um começo na indústria da IA ​​para usar a IA para abusar do governo e cercar o seu povo como uma ameaça catastrófica à autonomia”, escreveu ele. “Fizemos um bom trabalho de avaliações, mitigações e processos para ameaças como armas biológicas e segurança cibernética. Usamos processos semelhantes aqui.”

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui