Início APOSTAS Funcionários da OpenAI e do Google apoiam o processo da Anthropic contra...

Funcionários da OpenAI e do Google apoiam o processo da Anthropic contra o Departamento de Defesa

13
0

A Antrópica entrou com uma ação contra o Departamento de Defesa na segunda-feira sobre sua designação de risco na cadeia de suprimentos. Poucas horas depois, cerca de 40 funcionários da OpenAI e do Google chegaram, incluindo Jeff Dean, cientista-chefe do Google e chefe da Gemini. apresentou uma petição judicial em apoio ao processo da Antrópico.detalha as decisões e preocupações da administração Trump sobre os riscos e impactos da tecnologia.

A notícia surge após algumas semanas dramáticas para a Anthropic, onde a administração Trump designou a empresa como um risco na cadeia de abastecimento, uma designação normalmente dada a empresas estrangeiras consideradas pelo governo como um risco potencial para a segurança nacional de alguma forma. Isto ocorre depois de a Anthropic ter mantido duas linhas vermelhas em relação aos casos de utilização militar aceitáveis ​​para a sua tecnologia: vigilância doméstica em massa e armas totalmente autónomas (ou sistemas de IA capazes de matar sem envolvimento humano). As negociações fracassaram e, na sequência da humilhação pública, outras empresas de IA intervieram para assinar um acordo permitindo “todos os usos legais” da sua tecnologia.

A designação de risco da cadeia de abastecimento não só impede a Anthropic de trabalhar em contratos militares, mas também coloca outras empresas na lista negra se utilizarem os produtos da Anthropic no trabalho do Departamento de Defesa, forçando-as a erradicar Claude se quiserem manter os seus contratos lucrativos. Mas assim que o primeiro modelo foi considerado classificado, as ferramentas da Anthropic já estão profundamente integradas no trabalho do Pentágono e, poucas horas depois de o secretário da Defesa, Pete Hegseth, ter anunciado a designação, os militares dos EUA alegadamente usaram Claude na operação para matar o líder iraniano Khamenei.

O documento do tribunal afirma que a designação de risco da cadeia de abastecimento da Anthropic constitui “retaliação injustificada que prejudica o interesse público” e que as preocupações por trás da linha vermelha da Anthropic são “reais e exigem uma resposta”. Argumenta também que vale a pena revisitar as duas linhas vermelhas da Anthropic: “A vigilância doméstica em massa pela IA representa graves riscos para a governação democrática, mesmo nas mãos dos responsáveis” e “Sistemas de armas letais totalmente autónomos apresentam riscos semelhantes que devem ser abordados”.

O grupo por trás do documento do tribunal se descreve como “engenheiros, pesquisadores, cientistas e outros profissionais empregados em laboratórios remotos de inteligência artificial nos Estados Unidos”.

“Construímos, treinamos e pesquisamos sistemas de IA em grande escala que atendem a uma ampla gama de usuários e implantações, incluindo áreas críticas como segurança nacional, aplicação da lei e operações militares”, escreveu o grupo. “Apresentamos este documento a título pessoal, não como porta-vozes de qualquer empresa em particular, mas como especialistas com conhecimento em primeira mão do que estes sistemas podem ou não fazer e o que está em jogo quando implementados fora dos quadros legais e éticos concebidos para os governar.”

Na frente de vigilância doméstica em massa, o grupo disse que os dados sobre os americanos estão por toda parte, na forma de câmeras de vigilância, dados de localização, postagens em mídias sociais, transações financeiras, etc., mas “o que ainda não existe é uma camada de IA para transformar este ambiente de dados caótico e fragmentado em um aparato de vigilância unificado e em tempo real”. Eles escrevem que atualmente esses fluxos de dados estão isolados, mas se a IA for usada para conectá-los, ela poderia “combinar dados de reconhecimento facial com histórico de localização, registros de transações, gráficos sociais e padrões comportamentais de centenas de milhões de pessoas simultaneamente”.

Especialmente no caso das armas letais autónomas, estas podem ser menos fiáveis ​​em situações novas ou pouco claras que não correspondam ao ambiente em que foram treinadas, disse o grupo. Ou seja, “não se pode confiar neles para identificar metas com perfeita precisão e não podem fazer os delicados compromissos contextuais entre alcançar metas e considerar os efeitos colaterais, como fazem os humanos”. Além disso, o grupo escreve que o potencial dos sistemas autónomos de armas letais produzirem alucinações significa que é importante envolver os seres humanos no processo de tomada de decisão “antes de uma arma letal ser disparada contra um alvo humano”, especialmente porque a cadeia de raciocínio do sistema é muitas vezes indisponível para o operador e pouco clara até mesmo para o desenvolvedor do sistema.

Os grupos que apoiam o documento do tribunal escreveram: “Embora sejamos diversos em política e filosofia, estamos unidos na crença de que os actuais sistemas fronteiriços de IA representam riscos quando implantados para permitir a vigilância doméstica em massa ou a operação de sistemas autónomos de armas letais sem supervisão humana, e que esses riscos exigem algumas protecções através de salvaguardas tecnológicas e restrições de utilização”.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui