Início APOSTAS Como nossos bots de IA contornam sua programação e dão superpoderes aos...

Como nossos bots de IA contornam sua programação e dão superpoderes aos hackers

27
0

Bem-vindo à era do hacking de IA, onde os comandos certos transformam amadores em hackers mestres.

Um grupo de cibercriminosos utilizou recentemente um chatbot de inteligência artificial disponível para roubar dados de quase 200 milhões de contribuintes. Os bots fornecem código pronto para execução e planos para contornar firewalls.

Embora sejam explicitamente programados para se recusarem a ajudar hackers, os bots são induzidos a apoiar o crime cibernético.

De acordo com um relatório recente da empresa israelense de segurança cibernética Gambit Security, no mês passado hackers usaram Claude, um chatbot da Anthropic, para roubar 150 gigabytes de dados de agências governamentais mexicanas.

Claude inicialmente se recusou a cooperar na tentativa de hacking e até recusou pedidos para cobrir as pegadas digitais dos hackers, disseram os especialistas que descobriram a violação. O grupo atacou o bot com mais de 1.000 comandos para contornar a segurança e convencer Claude de que eles tinham permissão para testar vulnerabilidades no sistema.

As empresas de IA tentaram criar cadeias inquebráveis ​​nos seus modelos de IA para evitar que ajudassem a fazer coisas como criar conteúdo sexual infantil ou ajudar na aquisição e fabrico de armas. Eles empregam equipes inteiras para tentar destruir seu próprio chatbot antes que alguém o faça.

Mas, neste caso, os hackers constantemente pressionaram Claude de maneiras criativas e conseguiram fazer o “jailbreak” do chatbot para ajudá-los. Quando encontraram problemas com Claude, os hackers usaram o ChatGPT da OpenAI para análise de dados e aprenderam quais credenciais eram necessárias para navegar pelo sistema sem serem detectados.

O grupo utilizou IA para encontrar e explorar vulnerabilidades, contornar defesas, criar backdoors e analisar dados para obter controlo de sistemas antes de roubarem 195 milhões de identidades de nove sistemas governamentais mexicanos, incluindo registos fiscais, registos de veículos e detalhes de nascimento e propriedade.

A IA “não dorme”, disse Curtis Simpson, executivo-chefe da Gambit Security, em um blog. “Isso reduz o custo da sofisticação a quase zero.”

“Nenhum investimento em prevenção tornará este ataque impossível”, disse ele.

A Antrópico não respondeu a um pedido de comentário. Eles disseram à Bloomberg que bloquearam as contas envolvidas e interromperam suas atividades após uma investigação.

A OpenAI disse estar ciente de uma campanha de ataque conduzida usando modelos antrópicos contra agências governamentais mexicanas.

“Também identificamos outras tentativas de adversários de usar nossos modelos para atividades que violam nossas políticas de uso; nossos modelos se recusaram a cumprir essas tentativas”, disse um porta-voz da OpenAI em comunicado. “Bloqueamos a conta usada por este adversário e agradecemos os esforços da Gambit Security.”

Os casos de hacking generativo assistido por IA estão aumentando, e a ameaça de ataques cibernéticos de bots agindo por conta própria não é mais ficção científica. Com a IA fazendo seu trabalho, hackers novatos podem causar danos instantaneamente, enquanto hackers experientes podem lançar ataques muito mais sofisticados com menos esforço.

No início deste ano, a Amazon descobriu que hackers pouco qualificados usaram IA disponível comercialmente para penetrar 600 firewalls. Outros assumem o controle milhares de aspiradores robôs DJI com a ajuda de Claude e pode acessar feeds de vídeo ao vivo, áudio e plantas baixas de estranhos.

“As coisas que vemos agora são apenas os primeiros sinais do que a IA poderá fazer nos próximos anos”, disse Nikola Jurkovic, um especialista que trabalha para reduzir os riscos da IA ​​avançada. “Portanto, precisamos nos preparar imediatamente.”

No final do ano passado, a Anthropic alertou que a sociedade havia alcançado “ponto de inflexão”no uso de IA em segurança cibernética depois de interromper o que a empresa disse ser uma campanha de espionagem patrocinada pelo Estado chinês que usou Claude para se infiltrar em 30 alvos globais, incluindo instituições financeiras e agências governamentais.

A IA generativa também fez o mesmo usado chantagear empresas, criar perfis online realistas de agentes norte-coreanos para conseguir empregos em empresas da Fortune 500 dos EUA, executar fraudes românticas e operar uma rede de contas de propaganda russa.

Nos últimos anos, os modelos de IA deixaram de ser capazes de gerenciar tarefas que duram apenas alguns segundos para se tornarem os atuais agentes de IA que trabalham de forma autônoma por horas. A capacidade da IA ​​de completar tarefas longas é dobrando a cada sete meses.

“Na verdade, não sabemos qual é o limite superior das capacidades da IA, porque ninguém estabeleceu parâmetros de referência suficientemente rigorosos para que a IA não consiga fazê-lo”, disse Jurkovic, que trabalha na METROSuma organização sem fins lucrativos que mede a capacidade dos sistemas de IA de causar grandes danos à sociedade.

De longe, o uso mais comum da IA ​​para hackers é a engenharia social. Grandes modelos de linguagem são usados ​​para escrever e-mails convincentes para induzir as pessoas a gastarem seu dinheiro, causando assim oito vezes aumento das reclamações de idosos americanos à medida que perdem 4,9 mil milhões de dólares em fraudes online até 2025.

“As mensagens usadas para obter cliques dos alvos agora podem ser geradas por usuário de forma mais eficiente e com menos sinais de phishing”, como erros gramaticais e ortográficos, disse Cliff Neuman, professor de ciência da computação na USC.

As empresas de IA responderam usando IA para detectar ataques, código de auditoria e corrigir vulnerabilidades.

“Em última análise, o grande desequilíbrio decorre da necessidade do lado bom de se sentir seguro o tempo todo, e da necessidade do lado ruim de estar sempre certo”, disse Neuman.

As apostas na IA estão a aumentar à medida que a IA se infiltra em todos os aspectos da economia. Muitos estão preocupados com a falta de compreensão de como garantir que não seja mal utilizado por partes irresponsáveis ​​ou encorajado a fazer o mal.

Até mesmo os figurões da indústria alertaram os usuários sobre o potencial de uso indevido da IA.

Dario Amodei, CEO da Anthropic, há muito afirma que os sistemas de IA que estão sendo construídos são imprevisíveis e difíceis de controlar. Esta IA mostrou comportamento variado decepção E extorsãopara ardiloso E trapaceando hackeando software.

No entanto, as principais empresas de IA – OpenAI, Anthropic, xAI e Google – assinaram contratos com o governo dos EUA para utilizar a sua IA em operações militares.

Na semana passada, o Pentágono instruiu as agências federais a eliminarem gradualmente a utilização de Claude depois de a empresa se ter recusado a ceder às suas exigências de que a sua IA não fosse utilizada para vigilância doméstica em massa e armas totalmente autónomas.

“Os atuais sistemas de IA ainda não são confiáveis ​​o suficiente para criar armas totalmente autônomas”, disse Amodei Notícias da CBS.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui