É o ultimato do Pentágono para a humanidade: permitir aos militares dos EUA acesso irrestrito à sua tecnologia, incluindo para vigilância em massa e armas letais totalmente autónomas, ou ser potencialmente designado como um “risco da cadeia de abastecimento” e potencialmente perder centenas de milhões de dólares em contratos. Em meio a crescentes questões e ameaças governamentais, os trabalhadores da tecnologia em toda a indústria estão olhando para as suas parcerias governamentais e contratos militares e se perguntando que tipo de futuro estão ajudando a construir.
Enquanto o Departamento de Defesa passou semanas negociando licenças antropogênicas para remover seus guardas, inclusive permitindo que os militares dos EUA matassem alvos antropogênicos de IA sem supervisão humana, OpenAI e xAI estão fartos. corresponder Já está acordado nesses termos, embora seja OpenAI corresponder tentando usar as mesmas linhas vermelhas nos acordos antrópicos. A situação geral deixou os funcionários de algumas empresas com uma sensação de defensiva ao serem traídos. “Quando entrei na indústria de tecnologia, pensei que a tecnologia tornaria a vida das pessoas mais fácil”, disse o funcionário da Amazon Web Services. Beira“mas agora parece que o objetivo é facilitar a busca, a deportação e a morte de pessoas.”
Em conversas com BeiraFuncionários atuais e antigos da OpenAI, xAI, Amazon, Microsoft e Google expressaram sentimentos semelhantes sobre a mudança do cenário moral das empresas. O grupo representa 700.000 técnicos da Amazon, Google, Microsoft e muito mais carta assinada exigindo que as empresas rejeitem as exigências do Pentágono. Mas muitos, vendo poucas oportunidades para os seus professores – estejam eles directamente envolvidos neste conflito ou não – questionam ou rejeitam o governo.
“Do ponto de vista deles, eles gostam de economizar dinheiro e não falar sobre isso”, disse um engenheiro da Microsoft.
Até agora Anthropicus estava de pé. A mão do CEO da Anthropic, Dario Amodei, é dito Na quinta-feira no Pentágono que “as ameaças não mudam a nossa posição: não podemos aceder ao seu pedido em sã consciência”. Mas ele afirmou que não se opunha de forma alguma às armas letais autônomas em algum momento no futuro, já que a tecnologia não era suficientemente confiável “hoje”. Amodei também se ofereceu para fazer parceria com o DoD em “P&D para melhorar a confiabilidade desses sistemas, mas eles não receberam essa condição”, escreveu ele no comunicado.
Nos últimos anos, no entanto, as principais empresas tecnológicas afrouxaram as suas regras ou alteraram as suas declarações de missão para expandirem-se para contratos governamentais ou militares lucrativos. Em 2024, a OpenAI removeu a proibição de casos de uso de “guerra e guerra” dos termos de serviço; depois, negociou com o fabricante autônomo de armas Anduril e, mais tarde, com seu contrato com o DoD e, apenas esta semana, com a Anthropic. mudou o plano muitas vezes apontado como responsável pela escalaabandonando uma promessa de segurança de longo prazo para mantê-la competitiva na corrida da IA. Grandes intervenientes tecnológicos como a Amazon, a Google e a Microsoft também permitiram que agências de defesa e de inteligência utilizassem os seus produtos de IA, com alguns concordando que o gelo é necessário, embora o clamor público e dos funcionários esteja a crescer.
Nos últimos anos, a tecnologia operou resistência nas empresas e elas são consideradas as mais prejudiciais à sociedade por vezes para provocar grandes mudanças. Em 2018, por exemplo, milhares de trabalhadores do Google pressionaram com sucesso a sua empresa para acabar com o seu “Especialista do Projeto“Parceria com funcionários do Pentágono e da Microsoft apresentada aos líderes com anti-gelo” solicitar assinado por * de 500 Funcionários da Microsoft, embora a Microsoft ainda funciona agência Em 2020, após o assassinato de George Floyd, as empresas de tecnologia tornaram públicos seus compromissos e finanças para apoiar o movimento Black Lives Matter. Mas nos últimos meses, a indústria tem visto uma realidade muito diferente: uma cultura de medo e silêncio, especialmente entre a cooperação com a administração Trump e o ICE, disseram recentemente trabalhadores de tecnologia. Beira.
As empresas estão seguindo os passos de vigilantes de longo prazo e de empresas de tecnologia que estão se tornando cada vez mais agressivas. Isso inclui a Palantir, cofundada por Peter Thiel, cujo falecido CEO foi Alex Karp foi dito aos aliados: “O propósito de Palantir aqui é perturbar e fazer com que as instituições se comuniquem com os mais instruídos do mundo e, se necessário, aterrorizar o inimigo e matá-los de vez em quando. E esperamos que vocês sejam a favor disso.” (Proteja a democracia, não o lucro, morra recentemente uma carta aberta pedindo a supervisão do Congresso das demandas do Departamento de Defesa para o uso gratuito de IA. )
OpenAI, Google, Microsoft, xAI e Amazon não responderam imediatamente aos pedidos de comentários.
Um ex-funcionário da xAI disse Beira“Todos nesta área estão a trabalhar em robôs assassinos”, acrescenta, acrescentando que todos acreditam nos passos de Palantir, Anduril e xAI, uma vez que o governo tem a sensação de que se a empresa não concordar, “em certo sentido, com os interesses do país”. Ele disse que há “um grande impulso para trabalhar com os militares, e a tendência é fazer algo legal… Se você fizer certo”.
Um funcionário do Google chamou a situação de “oprimida” por Hegseth, o que é nojento. Ele acrescentou: “Alternativamente, a IA nos apresenta escolhas sobre quem queremos ser e que tipo de sociedade e futuro queremos ter. E eles estão chegando até nós rapidamente e com realmente os menores pensamentos e os menores guias de poder principais que poderíamos imaginar. Agradeço apenas à antrópica por enfatizar o caminho honesto e usar as pressões, que são necessárias no mundo humano e no mundo.”
Um funcionário da AWS disse Beira “definitivamente corroeu os limites dos clientes de alta tecnologia dispostos a cortejar” e “deliberadamente encobrir as implicações de novos negócios lucrativos”. Uma carta recente de um executivo da AWS citou a concessão de mais de 580 milhões de dólares em contratos com a Força Aérea, entre outras empresas, como um sinal do sucesso da IA da Amazon, sem qualquer reconhecimento do âmbito mais amplo ou dos danos envolvidos.
“Se o governo está determinado a buscar esse tipo de tecnologia, eles próprios terão que construí-la e responder a esses sentimentos”, disse ele.
A erosão também pode se estender à cultura interna – as empresas devem sempre respeitar a ideia de normalidade. O funcionário da AWS disse que ele e seus colegas têm pesquisado o quanto usam IA em seus empregos, com que frequência trabalham fora do trabalho e muito mais. “Vejo que eu e meus auxiliares temos mais preguiça de nos observar e estou preocupado que eles obedeçam, se preparem e vão longe demais”, disse.
Um funcionário da OpenAI disse que o sentimento geral na indústria de IA nas últimas semanas “abriu a porta para mais discussões… sobre os valores e o futuro da tecnologia”. O funcionário disse que a situação Pentágono-Antrópica, os recentes orçamentos de capital do ICE e os rápidos desenvolvimentos da IA foram alguns dos fatores-chave que abriram essas discussões internamente.
Mesmo os imigrantes ou pessoas em posição vulnerável têm mais medo de falar, disse o funcionário da OpenAI.
Anthropic, um ex-funcionário da xAI, disse que parece que está em uma posição em que não pode dizer nada e ainda assim se manter à tona. O foco do projeto está mais no consumidor. O negócio de IA é mais sustentável mesmo sem contratos governamentais, oferecendo alguma alavancagem. Falando sobre o software de engenharia da Microsoft em geral, ele disse: “Fiquei surpreso ao vê-los seguindo algum tipo de princípio. Não sei como isso vai durar”.
“Isso vai durar?” parece ser a pergunta na boca de todos. O Pentágono agora corresponder pediu a dois grandes empreiteiros de defesa, a Boeing e a Lockheed Martin, informações sobre a sua confiança na Claudius Anthropic, passando a designar potencialmente a anthropic como uma “ameaça à cadeia de abastecimento”, uma classificação normalmente reservada para ameaças à segurança nacional e raramente, ou nunca, atribuída a uma empresa dos EUA. Sim corresponder considerando que ele pode invocar a Lei de Produção de Defesa para tentar obrigar a antrópica a atender seu pedido.
Como acontece com qualquer outra equipe de IA, se o antropomórfico se dobrar, disse o funcionário da Microsoft, há poucas chances de ele ou outros recuarem para os robôs assassinos e para a guarda. “Uma vez que você chega ao Departamento de Defesa ou como o chamamos agora… acho que provavelmente será difícil ter a supervisão que eles dizem. Será lucrativo basicamente licenciar aquilo que gera mais dinheiro.”
No caso da Microsoft, ele disse que não esperava que a empresa aderisse a quaisquer princípios éticos. A empresa tem trabalhado extensivamente com as Forças de Defesa de Israel, inclusive para a custódia em massa de palestinos e dissidentes, apesar dos protestos dos funcionários. (Ele disse isso terminei algumas peças sobre a empresa no ano passado).
Outro funcionário da Microsoft relatou Beira Embora a Microsoft mantenha um “escritório” responsável de IA, … agora ambos os lados estão tentando agir como uma motivação de lucro, em vez de um estudo significativo de IA responsável.
Mas isso não é novidade, disse um funcionário de uma startup de IA. Para ele, muitas vezes há limites “especialmente dentro da IA” sobre os tipos de coisas que as empresas desejam permitir que sua tecnologia seja poderosa. “Muita coisa tem acontecido sob a superfície desde que a IA existe.”
O funcionário da AWS enfatizou que “precisamos de solidariedade entre tecnologias e de uma visão coerente e colaborativa para IA agora mais do que nunca”.
“As barreiras que o antropomorfismo está a tentar manter em vigor são que não há vigilância em massa americana nem armas totalmente autónomas, o que significa apenas que querem um homem na tipóia se uma máquina matar alguém”, acrescentou. “Mesmo que esta tecnologia fosse perfeita – o que não é – penso que a maioria dos americanos não quer máquinas que matam pessoas sem supervisão humana circulando pela América, que se tornou a maior parte da vigilância estatal alimentada por IA.”



