Início NOTÍCIAS Antrópico volta depois que rótulos militares dos EUA representam risco para a...

Antrópico volta depois que rótulos militares dos EUA representam risco para a cadeia de suprimentos

21
0

O secretário de Estado dos EUA, Pete Hegseth, instruiu o Pentágono a designar a antropogénica como uma “ameaça à cadeia de abastecimento” na sexta-feira, enviando ondas de choque por Silicon Valley e deixando muitas empresas lutando para descobrir se podem usar um dos modelos de IA mais populares da indústria.

“Com efeito imediato, nenhum empregador, fornecedor ou parceiro que conduza negócios militares com os Estados Unidos da América poderá conduzir qualquer atividade comercial com a Anthropic”, postou Hegseth nas redes sociais.

A designação ocorre após semanas de negociações entre o Pentágono e a Antrópica sobre como os militares dos EUA poderiam inicialmente usar modelos de IA. Em um postagem no blog Esta semana, a Anthropic argumentou que os seus contratos com o Pentágono não permitem que a sua tecnologia seja utilizada para vigilância doméstica em massa de americanos ou para armas totalmente autónomas. O Pentágono pediu à Anthropic que concordasse em aplicar a IA militar dos EUA a “todos os usos legítimos”, sem exceções específicas.

A designação de risco da cadeia de abastecimento permite ao Pentágono restringir ou excluir certos fornecedores de contratos de defesa se forem considerados como apresentando vulnerabilidades de segurança, tais como riscos relacionados com propriedade, controlo ou influência estrangeira. Destina-se a proteger sistemas e informações militares sensíveis de possíveis comprometimentos.

Antrópico respondeu em outro postagem no blog na noite de sexta-feira, dizendo que “invocaria qualquer denominação de cadeia de fornecimento em tribunal em risco” e que tal designação “estabeleceria um precedente perigoso para qualquer empresa americana que lide com o governo”.

A Anthropic acrescentou que não recebeu nenhuma comunicação direta do Departamento de Defesa ou da Casa Branca sobre negócios relacionados ao uso de seus modelos de IA.

“O secretário Hegseth deu a entender neste aviso que qualquer pessoa que faça negócios com militares seria impedida de fazer negócios com seres humanos. O secretário não tem autoridade estatutária para fazer esta declaração”, escreveu a empresa.

O Pentágono não quis comentar.

“Esta é a coisa mais nojenta, prejudicial e ultrajante que já vi os Estados Unidos fazerem”, disse Dean Ball, membro sénior da American Innovation Foundation e antigo conselheiro sénior de IA na Casa Branca. “A América acabou de sancionar a sociedade por si só. Se você é americano, você pensa se vai viver aqui daqui a cem anos ou não.”

Pessoas em todo o Vale do Silício recorreram às redes sociais para expressar choques e frustrações semelhantes. “As pessoas que dirigem esta administração são impotentes e vingativas. Acredito que isso seja suficiente para explicar o seu comportamento”, disse Paul Graham, fundador do acelerador de startups Y Combinator. ele disse.

Boaz Barak, pesquisador da OpenAI, disse em corredor “Deplorar uma das prioridades de nossas empresas de IA é quase o pior plano possível que podemos fazer. Eu realmente espero que a cabeça fria prevaleça e que este anúncio seja revertido.”

Enquanto isso, o CEO da OpenAI, Sam Altman, anunciou na noite de sexta-feira que a empresa chegou a um acordo com o Departamento de Defesa para implantar seus modelos de IA em ambientes classificados, aparentemente com carveouts. “Dois dos nossos princípios de segurança mais importantes são proibidos na vigilância doméstica em massa e na responsabilidade humana pelo uso da força, incluindo sistemas de armas autónomos”, disse Altman. “O DoW concorda com esses princípios, reflete-os na lei e na política, nós os colocamos em acordo.”

clientes confusos

Em sua postagem no blog de sexta-feira, a Anthropic disse que a designação de risco da cadeia de suprimentos, sob a autoridade de 10 USC 3252, se aplica apenas a contratos do Departamento de Defesa diretamente com fornecedores e não cobre como os empreiteiros usam o software Claude AI para atender outros clientes.

Três especialistas em contratos federais dizem que é impossível neste momento determinar quais clientes antropogênicos, se houver, deveriam cortar relações com as empresas agora. O anúncio de Hegseth “não é surpreendente em nenhuma lei que possamos adivinhar neste momento”, diz Alex Major, sócio do escritório de advocacia McCarter & English, que trabalha com empresas de tecnologia.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui