O Google teria assinado um acordo permitindo que o Departamento de Defesa dos EUA o usasse Exemplos de IA ele é designado para trabalhar, apesar das cartas abertas de centenas de trabalhadores de que a empresa está afastada de usos militares, o que, segundo eles, pode se tornar perigoso ou impossível de comandar.
Acordo; relatado na terça-feira em InformaçõesPermite ao Pentágono usar as ferramentas de IA do Google para “qualquer propósito governamental legítimo”, incluindo aplicações militares. Google se junta OpenAI e xAI, que também teria acordos semelhantes com a IA do Pentágono.
O acordo relatado contém linguagem que afirma que o sistema de IA do Google não se destina à vigilância doméstica ou a armas autônomas sem supervisão humana adequada. Mas o Google também afirma que não tem autoridade legal para governar ou vetar decisões operacionais, de acordo com entrega. Também ajudará nas configurações e filtros do Google para proteger a solicitação do governo.
Um porta-voz do Google disse à CNET em comunicado por e-mail que a empresa continua comprometida com sua posição de que a IA não deve ser usada para vigilância doméstica ou armas sem supervisão humana, e disse que o acesso da API a modelos comerciais sob práticas padrão é uma “abordagem responsável” para apoiar a segurança nacional.
O Pentágono recusou comentar à CNET.
O acordo cai no meio de uma reação interna. Em um Uma carta aberta ao CEO Sundar Pichaimais de 600 funcionários do Google pediram à empresa para “disponibilizar nossos sistemas de IA em tarefas classificadas”. Os responsáveis escreveram que, por trabalharem em estreita colaboração com a tecnologia, têm a responsabilidade de destacar e “prevenir os maiores abusos e utilizações perigosas”.
“Queremos que a IA beneficie a humanidade e não que seja usada de formas desumanas ou particularmente prejudiciais”, diz a carta. As autoridades disseram que as suas preocupações incluem armas letais autónomas e vigilância em massa, mas os exemplos vão além disso, até ao facto de o trabalho estar a ser relatado como acontecendo sem o conhecimento ou capacidade dos funcionários para o impedir.
A tensão parece uma das falhas internas mais proeminentes do Google. Em 2018, Milhares de trabalhadores do Projeto Maven protestaramPrograma do Pentágono envolvendo análise de IA de imagens de drones. Ele escolheu o Google mais tarde não renovar o contrato.
O foco do estado na IA militar e na segurança nacional mudou desde então.
No ano passado, o Google retirou a linguagem anterior dos seus princípios de IA, que dizia que não iria procurar tecnologias susceptíveis de causar danos, armas, certas tecnologias de vigilância ou sistemas que violassem amplamente os direitos humanos e os princípios do direito internacional.
Em um A postagem do blog de fevereiro atualiza os princípios de IA do GoogleCEO do Google DeepMind, Demis Hassabis, e presidente sênior, James Manyika ele escreveu “a democracia deve liderar o desenvolvimento da IA” e as empresas e os governos devem trabalhar em conjunto para construir uma IA que “proteja as pessoas, promova o crescimento global e apoie a segurança nacional”.
Para os trabalhadores do Google que celebram o acordo, a preocupação não é apenas que a IA possa ser usada pelos militares, mas que a implantação remova a visibilidade habitual em torno do modelo que está sendo usado.
“É incrivelmente embaraçoso”, escreveu Andreas Kirsch, pesquisador do Google DeepMind, em um comunicado. público depois das 10 * reage muito ao que é relatado.
A carta aberta de apelo direto dos funcionários do Google ao CEO do Google termina: “Hoje, apelamos a você, Sundar, para que aja de acordo com os valores sobre os quais esta empresa foi construída, e os encargos são conhecidos”.



