O chatbot de Elon Musk, Grok, postou na sexta-feira que uma violação de segurança fez com que ele produzisse “imagens representando menores em roupas minúsculas” na plataforma de mídia social X. O chatbot, um produto da empresa xAI de Musk, tem gerado uma onda de imagens sexuais ao longo da semana em resposta às solicitações dos usuários.
Capturas de tela compartilhadas por usuários no X mostram a aba de mídia pública de Grok preenchida com as imagens. xAI disse que está trabalhando para melhorar seus sistemas para evitar incidentes futuros.
“Houve vários casos em que os usuários solicitaram e receberam imagens de IA representando menores com roupas minúsculas”, disse Grok em comunicado. publicar em X em resposta ao usuário. “O xAI possui salvaguardas, mas estão sendo feitas melhorias para bloquear completamente essas solicitações.”
“Conforme mencionado, identificamos uma fraqueza em nossas salvaguardas e a corrigimos imediatamente – o CSAM é ilegal e proibido”, xAI postado à conta @Grok no X, referindo-se a material de abuso sexual infantil.
Muitos usuários do Musk postaram na quinta-feira uma foto de IA dele mesmo de biquíni, legendada com emojis chorando e rindo, em homenagem à tendência.
As imagens sexuais da geração de Grok parecem não ter restrições de segurança, permitindo que menores apareçam em suas postagens contendo pessoas, geralmente mulheres, vestindo roupas minúsculas, de acordo com postagens de chatbots. Em resposta aos usuários em
Quando contatado para comentar por e-mail, xAI respondeu com a mensagem: “Legacy Media Lies”.
A questão da utilização da IA para gerar material de abuso sexual infantil é um problema antigo na indústria da inteligência artificial. Um estudo de Stanford de 2023 encontrado que o conjunto de dados usado para treinar uma série de ferramentas populares de geração de imagens de IA contém mais de 1.000 imagens CSAM. Treinar IA em imagens de abuso infantil poderia permitir que modelos gerassem novas imagens de crianças exploradas, dizem os especialistas.
Grok também tem um histórico de falha em manter suas cercas de segurança e de postar informações incorretas. Em maio do ano passado, Grok começou a postar sobre uma conspiração de “genocídio branco” de extrema direita na África do Sul em postagens que nada tinham a ver com o conceito. A xAI também se desculpou em julho, depois que Grok começou a postar fantasias de estupro e material anti-semita, inclusive se autodenominando “MechaHitler” e elogiando a ideologia nazista. Mas a empresa conseguiu um contrato de quase US$ 200 milhões com o Departamento de Defesa dos EUA uma semana após o incidente.


