Início APOSTAS O hacking alimentado por IA explodiu e se tornou uma ameaça em...

O hacking alimentado por IA explodiu e se tornou uma ameaça em escala industrial, diz Google | IA (inteligência artificial)

22
0

Em apenas três meses, o hacking alimentado por IA passou de um problema novo a uma ameaça em todo o setor, de acordo com um relatório do Google.

As descobertas do grupo de inteligência de ameaças do Google contribuem para a intensificação da discussão global sobre como os mais recentes modelos de IA são altamente adeptos da codificação – e estão se tornando ferramentas poderosas para explorar vulnerabilidades em uma ampla variedade de sistemas de software.

O relatório conclui que os grupos criminosos, bem como os intervenientes ligados ao Estado da China, da Coreia do Norte e da Rússia, parecem estar a utilizar amplamente modelos comerciais – incluindo Gemini, Claude e ferramentas da OpenAI – para refinar e dimensionar os ataques.

“Existe um equívoco de que uma corrida pela vulnerabilidade da IA ​​é iminente. A realidade é que ela já começou”, disse John Hultquist, analista-chefe do grupo.

“Os atores de ameaças estão usando IA para aumentar a velocidade, escala e sofisticação de seus ataques. Isso lhes permite testar suas operações, defender-se contra alvos, criar malware melhor e fazer muitas outras melhorias.”

No mês passado, a empresa de IA Anthropic recusou-se a lançar um dos seus mais recentes modelos, o Mythos, depois de afirmar que tinha capacidades extremamente poderosas e representava uma ameaça para governos, instituições financeiras e para o mundo em geral se caísse em mãos erradas.

Especificamente, a Anthropic disse que a Mythos descobriu vulnerabilidades de dia zero em “todos os principais sistemas operacionais e todos os principais navegadores da web” – um termo para fraquezas em produtos que eram anteriormente desconhecidos por seus desenvolvedores.

A empresa disse que a descoberta exigiu “uma ação defensiva coordenada substancial em toda a indústria”.

No entanto, um relatório do Google descobriu que um grupo criminoso quase explorou recentemente uma vulnerabilidade de dia zero para realizar uma campanha de “exploração em massa” – e que este grupo parece estar a usar uma IA de modelo de linguagem grande (LLM) que não é Mythos.

O relatório também descobriu que muitos grupos estão “experimentando” o OpenClaw, uma ferramenta de IA que se tornou viral em fevereiro por oferecer a seus usuários a capacidade de entregar grande parte de suas vidas a um agente de IA sem barreiras de proteção e com uma tendência desagradável de excluir caixas de entrada de e-mail em massa.

Steven Murdoch, professor de engenharia de segurança na University College London, disse que as ferramentas de IA podem ajudar o lado defensivo da segurança cibernética – assim como os hackers.

“É por isso que não estou em pânico. Em geral, atingimos o estágio em que as antigas formas de encontrar bugs desapareceram, e agora tudo será ajudado por um LLM. Vai demorar um pouco até que as consequências disso desapareçam”, disse ele.

No entanto, se a IA ajudar hackers ambiciosos a atingir os seus objetivos de produtividade, ainda há dúvidas se ela impulsionará a economia em geral.

O Instituto Ada Lovelace (ALI), um organismo independente de pesquisa em IA, alertou contra a suposição de bilhões de libras em melhorias de produtividade do setor público provenientes da IA. O governo do Reino Unido estima poupanças e ganhos de produtividade de 45 mil milhões de libras provenientes do investimento do setor público em ferramentas digitais e IA.

Num relatório publicado na segunda-feira, a ALI afirmou que a maior parte da investigação sobre melhorias de produtividade relacionadas com a IA refere-se a poupanças de tempo ou reduções de custos, mas não analisa resultados como melhores serviços ou melhoria do bem-estar dos trabalhadores.

Outros aspectos problemáticos da investigação incluem: se as eficiências projectadas relacionadas com a IA no local de trabalho realmente funcionam no mundo real; números de manchete que obscurecem resultados variados no uso de IA em diversas tarefas; e não tem em conta o impacto no emprego no sector público e na prestação de serviços.

“As estimativas de produtividade que informam as principais decisões governamentais sobre IA baseiam-se por vezes em suposições não testadas e baseiam-se em metodologia cujas limitações nem sempre são apreciadas por aqueles que utilizam os números existentes”, afirma o relatório da ALI.

“O resultado é uma lacuna entre a confiança na apresentação de alegações de produtividade e a força das evidências por trás dessas alegações.”

As recomendações do relatório incluem: incentivar pesquisas futuras para refletir a incerteza dos impactos tecnológicos; garantir que os departamentos governamentais meçam o impacto dos programas de IA “desde o início”; e apoia estudos de longo prazo que medem os ganhos de produtividade ao longo de anos, não de semanas.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui