Início NOTÍCIAS Os agentes de IA estão melhorando. A segurança dos detectores

Os agentes de IA estão melhorando. A segurança dos detectores

30
0

Os agentes de IA certamente estão tendo um impacto. Entre a recente viralidade de Deus OpenClaw, Livro Molt e OpenAI como as características do seu agente de planejamento passo a passo, para que seja apenas um ano de atuação.

Por que? Venha, eles podem aconselhar; escrevendo código de injustiçanavegar na web e executar tarefas de várias etapas pouca ou nenhuma supervisão. Alguns até prometem gerenciar seu fluxo de trabalho. Outros se integram às ferramentas e sistemas da sua área de trabalho.

Um apelo óbvio. Esses sistemas simplesmente não respondem. Eles agir – para você e para você. Mas quando os pesquisadores depois Índice de agentes de IA do MIT Eles catalogaram 67 sistemas de agentes e encontraram algo perturbador.

Os desenvolvedores querem descrever o que os agentes podem fazer eu dou. Eles estão muito menos interessados ​​em descrever o que são seguro.

“Os principais desenvolvedores e startups de IA estão desenvolvendo cada vez mais sistemas de agentes de IA que podem planejar e executar tarefas complexas com envolvimento humano limitado.” os pesquisadores escreveram no artigo. “No entanto, atualmente não existe nenhuma estrutura para documentar… os recursos de segurança dos sistemas do agente.”

Essa lacuna é claramente demonstrada nos números: cerca de 70% dos agentes indexados fornecem documentação e quase metade edita o código. Mas apenas cerca de 19% divulgam um plano de saúde formal e menos de 10% reportam avaliações de saúde externas.

A pesquisa entende que, embora os desenvolvedores estejam prontos para evitar os recursos e aplicações dos sistemas de agentes, eles também podem facilmente fornecer informações limitadas sobre segurança e riscos. Acontece que os assimétricos são transparentes.

Esse é o Agente AI

Os pesquisadores determinaram o que aconteceu e nem todos os chatbots estão conectados. Para ser incluído, o sistema teve que trabalhar com objetivos não especificados e perseguir objetivos ao longo do tempo. Eles também tiveram que tomar medidas que afectassem o ambiente com intervenção humana limitada. Estes são os sistemas que decidem por si próprios nas etapas intermediárias. Eles podem dividir uma disciplina ampla em partes menores, implementar ferramentas, planejar, executar e repetir.

Essa autonomia é o que os torna poderosos. É sobre quem pega.

Como o modelo simplesmente gera texto, seus padrões geralmente são limitados a uma única saída. Quando o agente de IA de um gestor consegue acessar arquivos, enviar e-mails, fazer compras ou alterar documentos, erros podem prejudicar e se propagar pelas etapas. No entanto, os pesquisadores descobriram que a maioria dos desenvolvedores não explica publicamente em detalhes como vivenciam esses cenários.

É uma faculdade pública, eles não são zeladores

Qual é o modelo mais estudar não está escondido no fundo da mesa – é repetido no papel.

Os desenvolvedores gostam de compartilhar demonstrações, benchmarks e usabilidade desses agentes de IA, mas são muito menos consistentes no compartilhamento de avaliações de segurança, procedimentos de testes internos ou avaliações de risco de terceiros.

Essa disparidade é mais importante do que os atores que passam de protótipos para atores digitais incorporados em fluxos de trabalho reais. Muitos sistemas indexados operam em domínios como engenharia, programação e uso de computadores – ambientes que muitas vezes envolvem gerenciamento de dados sensíveis e significativos.

O Índice de Agentes de IA do MIT não afirma que a IA dos agentes não seja segura em geral, mas mostra que o aumento da autonomia, da transparência e da segurança não acompanhou o ritmo.

Sem aceleração. Os guardiões, pelo menos oficialmente, continuam mais difíceis.



Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui