UMA luta da nthropic com o Departamento de Defesa sobre as restrições de segurança que podem ser aplicadas aos seus modelos de inteligência artificial cativou a indústria tecnológica e tornou-se um teste à forma como a IA pode ser usada na guerra e ao poder dos governos para forçar as empresas a satisfazer as suas exigências.
As negociações giram em torno da recusa da Anthropic em permitir que o governo federal utilize AI Claude para vigilância doméstica em massa ou sistemas de armas autónomos, mas a disputa também reflecte a natureza confusa do que acontece quando as empresas tecnológicas integram os seus produtos em conflitos. O Pentágono declarou esta semana que a Anthropic é um risco para a cadeia de abastecimento devido à sua recusa em concordar com os termos do governo, enquanto a Anthropic prometeu contestar a designação em tribunal.
O Guardian conversou com Sarah Kreps, professora e diretora do Instituto de Política Tecnológica da Universidade Cornell, que serviu anteriormente na Força Aérea dos Estados Unidos, sobre como a rivalidade se desenrolou.
Você trabalhou Um momento sobre questões em torno da “tecnologia de dupla utilização” O que acontece quando alguma tecnologia de consumo também é usada para fins secretos ou militares?
Penso muito nisso porque fui militar e estive ao lado dos militares que desenvolveram e adquiriram novas tecnologias. Sempre recebemos críticas sobre por que demorou tanto, e agora vendo o que aconteceu, percebo por que demorou tanto.
O que você desenvolveria para um contexto secreto e militar é muito diferente do que a Antrópico desenvolveu quando usei Claude. O desafio para os militares é que a tecnologia é tão útil que mal podem esperar até que uma versão de nível militar esteja disponível. Precisam de agir rapidamente devido ao quão valiosas são estas ferramentas, mas não é surpreendente que enfrentem diferenças culturais não só entre plataformas de IA e militares, mas também plataformas de IA que tentaram cultivar reputações como plataformas mais preocupadas com a segurança.
Um um elemento dessa rivalidade é o que a Antrópica se autodenomina uma empresa que prioriza a segurança, mas depois intervém acordo com os militares.
Sim, existem maneiras surpreendentes de a Anthropic se surpreender com o resultado final. Um desafio é que a Anthropic aparentemente tomou a decisão há um ou dois anos de que o ChatGPT era voltado para usuários individuais e que a Anthropic tentaria dominar o mercado empresarial. Isso significa que eles estão tentando fazer negócios com organizações, em vez de tentar vender pacotes individuais.
O que me intriga é que eles fazem negócios com o Pentágono e a Palantir, que estão envolvidos no uso da IA para fins que algumas pessoas consideram questionáveis. Então a decisão me surpreendeu porque estava em desacordo com a marca que a Anthropic estava tentando fazer a curadoria.
Parece antrópico OK, o uso da tecnologia é bastante extenso, mas existe uma linha vermelha que alcançam com vigilância doméstica em massa e armas autónomas mortais.
Existem várias possibilidades. Uma é que tem algo a ver com a relação entre o pessoal da Anthropic e a administração Trump, o que levou a um declínio da desconfiança.
Em segundo lugar, a situação na Venezuela e a política em torno das actividades do ICE. Tem dúvidas sobre o que realmente significa usar essa tecnologia legalmente? A definição de jurídico de uma pessoa pode parecer muito diferente da definição de outra pessoa.
O argumento do Pentágono, em parte, é que se houver um problema de defesa nacional não precisamos ligar Dario Amodei para obter aprovação. Parece haver uma verdadeira questão sobre qual o papel que as empresas privadas de tecnologia desempenham na tomada de decisões em matéria de segurança nacional.
Se você se lembra do caso do iPhone do assassino de San Bernardino, as autoridades estavam preocupadas que esta fosse uma situação muito ruim e precisavam que a Apple se envolvesse com o telefone. (Em 201No dia 6, o FBI pediu à Apple que criasse um backdoor para dar acesso ao telefone do atirador em massa. A Apple recusou por motivos de privacidade, então o FBI procurou um terceiro independente para hackear o dispositivo).
A diferença com a IA antrópica é que, depois de entregá-la aos militares, você não precisa mais da aprovação da Anthropic para usá-la como achar melhor. Essa é a diferença entre hardware e software. Você pode reutilizar este software e usá-lo de maneiras que talvez não fizessem parte de um acordo explícito, mas agora você pode justificar com base na segurança nacional. Depois a Antrópica perdeu influência porque estava nas mãos de profissionais de segurança nacional.
E a Antrópico não saberia para que servia, certo?
Sim, isso é verdade. Não se trata apenas de entrar em caixas pretas, mas de Black Ops e sistemas secretos que estão fechados.
Achei interessante esta semana que parece que muitas questões antigas sobre o uso de IA nas forças armadas estão começando a surgir. Você acompanha esses assuntos há muito tempo, o que achou de assistir a luta dessa vez?
Quando eu ouvir o CEO da Anthropic falar, ele falará sobre os riscos existenciais e o uso indevido da IA para o bioterrorismo. Sempre pensei que era muito longe ou muito difícil de alcançar. Acho que esses casos mais comuns são mais arriscados.
Também houve pessoas que, há muito tempo, previram questões sobre armas autônomas. O desafio é como saber se há realmente um ser humano envolvido. Essa é uma preocupação da Anthropic – como saber se esse sistema está sendo utilizado de forma totalmente autônoma? Os EUA dizem que não utilizaremos a IA de forma totalmente autónoma, mas não está claro qual será o processo para garantir que isso não aconteça. Isto pode acontecer, mas penso que iremos definitivamente nessa direcção, só porque a tecnologia está a ficar mais sofisticada. O facto de estarmos agora envolvidos num conflito acelerou efectivamente esse prazo.
Falamos muito sobre a ameaça da IA e as linhas vermelhas que mantêm muitas pessoas afastadas dela, mas como a IA já está sendo usada na guerra?
Você pode ver como isso é muito útil em um ambiente militar. Faço alguns trabalhos na parte de inteligência e um dos desafios não é a falta de conteúdo, é a relação sinal-ruído. Você tem uma enorme quantidade de informações, mas é muito difícil conectar os pontos, e isso é algo que a IA é muito boa em fazer. Você alimenta uma grande quantidade de informações e produz resultados que ajudam a identificar o sinal.
Se você está procurando reconhecimento de padrões, a IA é muito boa no reconhecimento de padrões. Você pode identificar quais correlações ou características você está procurando e então o navio pode sair e identificar coisas, por exemplo, navios da Marinha iraniana, com base no que você o programou para identificar. De certa forma, isto não é muito controverso, porque os objectivos são bastante concretos.
O que deixa as pessoas mais desconfortáveis é quando a América, por exemplo, realiza ataques antiterroristas. Você tem indivíduos em campo que não possuem muitas características identificáveis, então essa é uma situação muito mais perigosa para a IA, onde você realmente deseja ter certeza de fazer uma verificação tripla. Ele pode ser um lutador, pode ser um civil. Não se trata de navios de guerra nem de mísseis terra-ar, onde é mais difícil errar.


