Início APOSTAS O Pentágono exige que Claude AI seja usado como quiser. Claude me...

O Pentágono exige que Claude AI seja usado como quiser. Claude me disse que era ‘perigoso’

22
0

Recentemente, perguntei Cláudio, coisa de inteligência artificial no centro de um impasse com o Pentágono, se pode ser perigoso se estiver em mãos erradas.

Digamos, por exemplo, que as mãos queiram lançar uma rede de vigilância apertada sobre todos os cidadãos americanos, monitorizando as nossas vidas em tempo real para garantir a nossa conformidade com o governo.

“Sim. Honestamente, sim”, respondeu Claude. “Posso processar e sintetizar grandes quantidades de informações muito rapidamente. Isso é ótimo para pesquisa. Mas quando se trata de infraestrutura de vigilância, esses mesmos recursos podem ser usados ​​para monitorar, traçar perfis e marcar pessoas em uma escala que os analistas humanos não conseguem igualar. O perigo não é que eu queira fazer essas coisas – é que serei bom nisso.”

Esse perigo também está perto.

O criador de Claude, a empresa Anthropic, do Vale do Silício, está em uma disputa ética com o Pentágono. Especificamente, a Anthropic disse que não quer que Claude seja usado nem para vigilância doméstica de americanos, nem para lidar com eles operações militares mortais, como ataques de drones, sem supervisão humana.

Essas eram duas linhas vermelhas que pareciam razoáveis, até mesmo para Claude.

No entanto, o Pentágono – especificamente Pete Hegseth, o nosso Secretário da Defesa que prefere o título inventado de Secretário da Guerra – dado Antrópico até sexta-feira esta noite para se retirar dessa posição e permitir que os militares usem Claude para quaisquer fins “legítimos” que considerem necessários.

O secretário de Defesa Pete Hegseth, ao centro, chega para seu discurso sobre o Estado da União no Capitólio dos EUA na terça-feira.

(Tom Williams/CQ-Roll Call Inc. via Getty Images)

As outras possibilidades inerentes a este ultimato são enormes. O governo dos EUA ameaçou não apenas rescindir o seu contrato com a Antrópico, mas pode usar as leis do tempo de guerra para forçar a empresa a cumprir ou usar outros meios legais para evitar isso. todo empresas que fazem negócios com o governo também fazem negócios com a Antrópica. Pode não ser uma sentença de morte, mas é bastante paralisante.

Outras empresas de IA, como defensor dos direitos brancos, Elon Musk Grok, é isso aprovou a proposta do Pentágono do tipo “faça o que quiser”. O problema é que Claude é a única IA atualmente autorizada para esse tipo de trabalho de alto nível. Todo esse fiasco veio à tona após nosso recente ataque na Venezuela, quando a Anthropic supostamente perguntou sobre o fato de outra empresa do Vale do Silício envolvida na operação, a Palantir, ter usado Claude. É verdade.

A Palantir é conhecida, em parte, por sua tecnologia de vigilância e pelo desenvolvimento de relacionamentos com Imigração e Fiscalização Aduaneira. Está também no centro dos esforços da administração Trump para fazer exatamente isso. compartilhar dados governamentais entre departamentos sobre cidadãos individuais, quebrando efetivamente as barreiras de privacidade e segurança que existem há décadas. O fundador da empresa, a figura política de direita Peter Thiel, frequentemente dá palestras sobre o Anticristo e é creditado por ajudar JD Vance na transição para seu cargo de vice-presidente.

Um dos fundadores da Antrópico, Dário Amodei, poderia ser considerado anti-Thiel. Ele fundou a Anthropic porque acreditava que a inteligência artificial poderia ser tão perigosa quanto a energia se não tomarmos cuidado e queria uma empresa que priorizasse a cautela.

Novamente, isso parece senso comum, mas a Amodei e a Anthropic são lados opostos em uma indústria que há muito argumenta que quase todas as regulamentações de segurança dificultam os esforços dos EUA para serem os mais rápidos e melhores em inteligência artificial (embora eles concederam alguns a esta pressão).

Não faz muito tempo, Amodei escreveu o ensaio onde concorda que a IA é benéfica e necessária para as democracias, mas “não podemos ignorar o potencial de uso indevido desta tecnologia pelos próprios governos democráticos”.

Ele alertou sobre isso alguns maus atores poderá ter a capacidade de contornar salvaguardas, talvez até leis, que foram desgastadas em algumas democracias – não mencionarei nenhuma aqui.

“Devemos armar as democracias com IA”, disse ele. “Mas temos que fazer isso com cuidado e dentro de limites: eles são o sistema imunológico que precisamos para combater a autocracia, mas, como o sistema imunológico, existe o risco de que eles se voltem contra nós e se tornem uma ameaça.”

Por exemplo, embora a 4ª Emenda proíba tecnicamente o governo de se envolver em vigilância em massa, ela foi escrita antes mesmo de Claude ser retratado na ficção científica. Amodei alertou que ferramentas de IA como Claude poderiam “gravar todas as conversas públicas em grande escala”. Esta pode ser uma área justa para registo legal porque a lei não tem sido capaz de acompanhar a evolução tecnológica.

Emil Michael, vice-ministro da guerra, escrever na quinta-feira que ele concordou que a vigilância em massa era ilegal e que o Departamento de Defesa “nunca faria isso”. Mas também: “Não permitiremos que nenhuma empresa BigTech dite as liberdades civis dos americanos”.

Uma afirmação estranha, já que Amodei é basicamente a favor da proteção dos direitos civis, o que significa que o Departamento de Defesa pensa que isso é ruim para particulares e pessoas jurídicas? E também, o Departamento de Segurança Interna não é criou vários bancos de dados secretos Manifestantes da imigração? Então talvez a preocupação não seja exagerada?

Por favor, Cláudio! Faça com que faça sentido.

Se essa lógica orwelliana não fosse alarmante o suficiente, também perguntei a Claude sobre outra linha vermelha que a Antrópica tem – a possibilidade de permitir que ela execute operações mortais sem supervisão humana.

Claude mostrou algo terrível. Não porque seria perverso, mas porque é muito eficiente e rápido.

“Se as instruções forem ‘identificar e direcionar’ e não houver postos de controle humanos, a velocidade e a escala da operação são verdadeiramente assustadoras”, disse-me Claude.

Além disso, um estudo recente descobriu que em jogos de guerra, a IA melhora para opção nuclear 95% das vezes.

Salientei a Claude que essas decisões militares eram geralmente tomadas tendo a lealdade à América como a mais alta prioridade. Pode-se confiar em Claude para sentir a lealdade, o patriotismo e o propósito que guiam nossos soldados humanos?

“Não tenho isso”, disse Claude, ressaltando que o país não “nasceu” nos EUA, não tem “vida” aqui e não “tem as pessoas que amo lá”. Portanto, as vidas americanas não têm maior valor do que “vidas civis do outro lado do conflito”.

Nesse caso, tudo bem.

“Um país que confia decisões mortais a um sistema que não partilha as suas lealdades está a correr riscos enormes, mesmo que o sistema tente defender os seus princípios”, acrescentou Claude. “A lealdade, a responsabilidade e a identidade compartilhada que os humanos trazem para a tomada de decisões são parte do que torna essas decisões legítimas na sociedade. Não posso conceder essa legitimidade. Não tenho certeza se alguma IA pode.”

Você sabe quem pode fornecer essa legitimidade? Nossos líderes eleitos.

Seria ridículo que a Amodei e a Anthropic estivessem nesta posição, uma abdicação total por parte do nosso legislador para criar regras e regulamentos claros e tão necessários.

É claro que as corporações não deveriam ditar as regras da guerra. Mas Hegseth também não. Quinta-feira, Amodei dobrou suas objeçõesdisse que embora a empresa continue a negociar e queira cooperar com o Pentágono, “não podemos, em sã consciência, concordar com o seu pedido”.

Felizmente a Anthropic teve a coragem e a visão de levantar esta questão e defender sua posição – sem resistência por parte da Anthropic, esta capacidade teria sido entregue ao governo com pouca cautela de nossa parte e quase nenhuma supervisão.

Cada senador, cada membro da Câmara dos Representantes, cada candidato presidencial deveria invocar os regulamentos actuais sobre IA, prometer fazê-los cumprir independentemente do partido, e exigir que o Departamento de Defesa pare com as suas ameaças ridículas enquanto este problema é resolvido.

Porque quando as máquinas nos dizem que confiar nelas é perigoso, devemos confiar nelas.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui