Início NOTÍCIAS Esta empresa de defesa criou agentes de IA que explodem coisas

Esta empresa de defesa criou agentes de IA que explodem coisas

12
0

Como a maioria das empresas do Vale do Silício hoje; espionagem IA Ele usa grandes modelos e agentes de IA para automatizar tarefas. A grande diferença é que, em vez de escrever códigos, responder e-mails ou comprar coisas on-line, os agentes AI Scout são projetados para procurar e destruir coisas em ambientes naturais, explodindo drones.

Numa demonstração recente, realizada numa base militar no centro da Califórnia, a tecnologia de espionagem de IA foi colocada no comando de um carro de estrada letal e de um drone letal. Os agentes usaram esses sistemas para encontrar um caminhão escondido na área e depois detonar a carga explosiva.

“Precisamos trazer a próxima geração de IA para as forças armadas”, disse-me Colby Adcock, CEO da AI Spectator, em uma entrevista recente. (O irmão de Adcock, Brett Adcock, é o CEO da Figure AI, uma startup que trabalha com robôs humanóides). “Estamos pegando o modelo hiperescalar da fundação e construindo-o de um chatbot geral ou de um agente assistente para um guerreiro.”

A empresa de Adcock faz parte de uma nova geração de startups que trabalham para adaptar tecnologias de grandes laboratórios de IA ao combate. Muitos decisores políticos acreditam que a armadura de IA será a chave para o futuro do governo militar. A concorrência potencial da IA ​​é uma das razões pelas quais o governo dos EUA tem procurado acabar com a venda de chips e equipamentos avançados de IA à China, uma vez que a administração Trump optou recentemente por afrouxar esses poderes.

“Precisamos levar os planos de tecnologia de defesa ao limite com a integração da IA”, diz Michael Horowitz, professor da Universidade da Pensilvânia que anteriormente atuou como vice-secretário de defesa do Pentágono para o desenvolvimento de forças e capacidades emergentes. “Isso é exatamente o que eles farão se os EUA liderarem a adoção da IA ​​militar”.

Horowitz também observa que pode ser extremamente difícil provar na prática os mais recentes desenvolvimentos de IA.

Grandes modelos de linguagem são inerentemente vagos e os agentes de IA – como aqueles que governam o popular assistente de IA OpenClaw – podem cometer erros, mesmo com tarefas relativamente benignas, como organizar produtos online. Horowitz diz que será particularmente difícil demonstrar que tais sistemas são robustos do ponto de vista da segurança cibernética – algo que seria necessário para uso militar generalizado.

A demonstração de reconhecimento da IA ​​mais recente envolveu vários estágios em que a IA tinha rédeas livres nos sistemas de combate.

No início da missão, esse comando foi inserido em um sistema espião de IA conhecido como Fury Orchestrator;

Rage Orchestrator, envie 1 veículo para pousar em STONE ALPHA. Julgamento 2 drone em movimento. O caminhão passou 500 metros a leste do campo de aviação e enviou a confirmação.

Um modelo de IA relativamente grande, com mais de 100 bilhões de parâmetros, que pode ser executado em uma plataforma de nuvem segura ou em uma plataforma climatizada, interpreta o comando inicial. O AI Explorer usa um modelo de código aberto com restrições removidas. Esse modelo atua então como um agente, enviando comandos menores, modelos de 10 bilhões de parâmetros no solo, comandando os veículos e drones envolvidos no exercício. Os modelos menores também são autônomos, sendo seus comandos feitos para sistemas de IA inferiores que controlam os movimentos dos veículos.

Em segundo lugar, depois de receber as ordens, o veículo terrestre segue pela estrada de terra que serpenteia entre arbustos e árvores. Poucos minutos depois, um veículo parado se aproximou e lançou dois drones, que sobrevoaram a área onde o alvo foi instruído a esperar. Depois de avistar o caminhão, o agente AI correndo em um dos drones ordenou que ele voasse em direção a ele e detonasse a carga explosiva antes do impacto.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui