7 de outubro Uma conta do TikTok chamada @fujitiva48 fez uma pergunta provocativa junto com seu vídeo mais recente. “O que você acha deste brinquedo para crianças pequenas?” perguntaram mais de 2.000 telespectadores, que ficaram chocados com o que parecia ser uma paródia de um comercial de TV. A resposta é óbvia. “Ei, você, isso não é engraçado”, escreveu uma pessoa. “Quem fez isso deveria ser investigado”.
É fácil ver por que o vídeo provocou uma reação tão forte. O comercial falso abre com uma jovem fotorrealista rosa-brinquedo, brilhante, adornando o cabo de uma abelha. É uma caneta, dizem-nos, enquanto a menina e outras duas pessoas desenham num papel enquanto um homem adulto conta a história. Mas o óbvio design floral do objeto, a capacidade de vibrar e o nome – Vibro Rose – parecem e soam muito semelhantes a um brinquedo sexual. Adicione “seu próprio botão”, que no TikTok incentiva as pessoas a compartilhar o vídeo em seus feeds – com as palavras “Quero tocar minha rosa” ou elimina o menor deslize de dúvida. (WREDO entrou em contato com @ fujitiva48 para comentar, mas não obteve resposta.)
O clipe foi feito usando Sora 2, o mais recente gerador de vídeo da OpenAI, que foi lançado inicialmente apenas por convite nos EUA. em 30 de setembro. Em uma semana, como no clipe de Vibro Rose, eles migraram de Sora e apareceram na You Page do TikTok. Outros comentários falsos são ainda mais elaborados, com vários relatos de comentários semelhantes aos vídeos da geração Soram 2 fingindo ser brinquedos de água de rosas ou cogumelos e decorações de bolo que emitem “leite pastoso”, “espuma branca” ou “gosma” em imagens vitais de crianças.
Em muitos países, isto seria motivo de investigação se estas crianças fossem reais e não amálgamas digitais. Mas as leis sobre conteúdo fetichista gerado por IA que assustam menores permanecem. Novos dados de 2025 a Fundação de observação da Internet no Reino Unido, são conhecidos relatórios sobre material de abuso sexual infantil gerado por IA ou CSAM, no espaço de um ano, de 199 entre janeiro-outubro de 2024 a 426, no mesmo período de 2025. Cinquenta e seis por cento deste conteúdo na Categoria A – a categoria mais séria do Reino Unido envolvendo penetração sexual, sexual com um animal ou sadismo. 94 por cento das imagens ilegais investigadas pela AI IWF eram meninas. (Sora não parece gerar nenhum conteúdo de categoria).
“Muitas vezes vemos semelhanças reais de crianças sendo usadas para criar imagens nuas ou sexuais, e vemos IA sendo usada para criar imagens de meninas. Por outro lado, as meninas ainda são alvo de ataques on-line”, disse Kerry Smith, executivo-chefe da IWF, à WIRED.
Este influxo de conteúdo prejudicial gerado por IA está levando o Reino Unido a introduzi-lo sua nova emenda ao Projeto de Lei sobre Crime e Policiamentoo que permitirá que “testemunhas autorizadas” verifiquem se as ferramentas de inteligência artificial não podem gerar Csam. Conforme relatado pela BBC, esta alteração permitiria que os modelos tivessem proteções em torno de imagens específicas, incluindo pornografia extrema e imagens íntimas não consensuais em particular. Nos EUA, 45 estados implementaram as leis criminalizar CSAM gerado por IAprincipalmente dentro de dois anos, à medida que os geradores de IA continuam a se desenvolver.



