A plataforma de IA de Elon Musk, Grok, anunciou na sexta-feira que está lutando para corrigir falhas de segurança depois de usar com sucesso a ferramenta para transformar fotos de usuários e mulheres em imagens sensuais.
“Identificamos erros nas medidas de segurança e estamos corrigindo-os imediatamente”, disse Grok em um post no X.
A polêmica decorre do botão “Editar imagem” no final de dezembro. O recurso permite aos usuários editar qualquer imagem na plataforma. No entanto, rapidamente surgiram reclamações de que os usuários estavam usando a ferramenta para remover roupas das fotos sem o seu consentimento.
Os lapsos desencadearam imediatamente o escrutínio internacional. Na sexta-feira, o Ministério Público de Paris ampliou uma investigação existente sobre X para incluir alegações de que Grok estava sendo usado para produzir e distribuir pornografia infantil.
Enquanto isso, as autoridades indianas exigem que X forneça detalhes sobre as medidas tomadas para remover conteúdo obsceno, nu, indecente e sexualmente sugestivo, de acordo com relatos da mídia local.
Uma análise da Reuters identificou vários casos em que Grok produziu imagens sexuais de crianças e adultos não consensuais.



