- IA pode estudar padrões de senha gerados para seguir hackers
- Sob a complexidade superficial esconde-se a previsibilidade estatística
- Lacunas de entropia nas estruturas de senhas de IA expõem pontos fracos nos logins de IA
Grandes modelos de linguagem (LLMs) podem parecer senhas complexas, mas testes recentes sugerem que essas strings estão longe de ser aleatórias.
O estudo examinou senhas irregulares de sistemas de IA, como Close, ChatGPT e Gemini, buscando gerar senhas individuais de 16 caracteres com símbolos, números e letras mistos.
À primeira vista, os resultados pareciam fortes e puxavam as forças comuns das entranhas, com alguns mosaicos estimando que as rachaduras fariam esses séculos, mas um olhar mais atento a esses bilhetes contava uma história diferente.
As senhas LLM mostram repetição estatística e padrões de conjecturas
Quando os pesquisadores analisaram as 50 senhas geradas em sessões separadas, muitas eram duplicadas e muitas seguiam padrões estruturais quase idênticos.
A maioria deles começava e terminava com fontes semelhantes e não continha repetição de caracteres.
Esta ausência de repetição pode parecer branda, mas na verdade sugere que as compulsões decorrem de reuniões aprendidas e não de um verdadeiro acaso.
Usando cálculos de entropia baseados em estatísticas e modelos estatísticos de probabilidade, os pesquisadores estimaram que esses tokens gerados por IA carregavam cerca de 20 a 27 partículas de entropia.
Um bilhete verdadeiramente aleatório de 16 características entre 98 e 120 partículas era normalmente medido da mesma maneira.
A lacuna é substancial – e na prática, pode significar que tais senhas ficam vulneráveis a ataques de força bruta em questão de horas, mesmo em hardware que já não existe mais.
Você deseja que os medidores on-line avaliem a complexidade da superfície, e não os padrões estatísticos ocultos por trás da corda – e porque eles não levam em conta como As ferramentas de geração de texto de IA podem prever resultados que podem ser exibidos com segurança.
Os invasores que entendem que esses tipos de suposições aprimorarão suas estratégias, estreitando drasticamente o espaço de busca.
O estudo também descobriu que sequências semelhantes aparecem em repositórios e documentos em código público, sugerindo que as senhas geradas por IA já são amplamente hackeadas.
Se os desenvolvedores confiarem em testes ou implantação desses resultados, o risco aumentará com o tempo – na verdade, mesmo os sistemas de IA que geram essas senhas podem não confiar totalmente e ignorar esses avisos urgentes.
O Gemini 3 Pro, por exemplo, retornou sugestões de senha junto com um aviso de que as credenciais de bate-papo geradas não devem ser usadas para contas confidenciais.
Em vez disso, as senhas são recomendadas e os usuários são incentivados a confiar em um gerenciador de senhas dedicado.
O gerador de senhas integrado a essas ferramentas depende de criptografia aleatória, em vez de linguagem preditiva.
Em termos simples, os LLMs são treinados para produzir texto confiável e repetível, e não sequências previsíveis, portanto há uma preocupação estrutural mais ampla.
Os princípios de design por trás das senhas LLM geradas são incompatíveis com os requisitos de autenticação segura, fornecendo assim proteção com uma brecha.
“As pessoas e os gerentes de codificação não confiam nos LLMs para gerar senhas”, disse Irregular.
“As senhas geradas pela saída direta do LLM são fundamentalmente fracas e isso não pode ser resolvido por aviso ou ajustes de temperatura: os LLMs são otimizados para produzir resultados previsíveis e plausíveis que são compatíveis com a geração segura de senhas.”
O caminho Cadastre-se
Siga o TechRadar no Google Notícias e adicione-nos para encomendar a primavera para obter notícias, análises e opiniões de especialistas em seu feed. Certifique-se de clicar no botão Seguir!
E é claro que você também pode Siga o TechRadar no TikTok Receba notícias, análises, unboxings em formato de vídeo e atualizações regulares nossas whatsapp também



