Início APOSTAS Detector ‘universal’ encontra vídeos deepfake de IA com precisão recorde

Detector ‘universal’ encontra vídeos deepfake de IA com precisão recorde

14
0

Vídeo deepfake do primeiro-ministro australiano Anthony Albanese em seu smartphone

Australian Associated Press/Alamy

Um detector deepfake de uso geral alcançou a mais alta precisão na detecção de vários tipos de vídeos manipulados ou gerados inteiramente por inteligência artificial. A tecnologia poderia ajudar a sinalizar pornografia não consensual gerada por IA, fraudes deepfake ou vídeos de desinformação eleitoral.

O uso generalizado de ferramentas baratas de criação de deepfake alimentadas por IA acelerou a disseminação incontrolável online de vídeos sintéticos. Muitos retratam mulheres, incluindo celebridades e estudantes, em pornografia não consensual. Deepfakes também têm sido usados ​​para influenciar eleições políticas e para potencializar fraudes financeiras visando consumidores comuns e executivos corporativos.

No entanto, a maioria dos modelos de IA treinados para detectar vídeos sintéticos concentram-se em rostos. Isso significa que é mais eficaz na detecção de certos tipos de deepfakes, onde o rosto de uma pessoa real é substituído por um vídeo existente. “Precisamos de um modelo que possa detectar não apenas vídeos manipulados no rosto, mas também vídeos manipulados em segundo plano e vídeos totalmente gerados por IA”, diz ele. Rohit Kundu Na Universidade da Califórnia, Riverside. “Nosso modelo aborda exatamente essa preocupação. Assumimos que todo o vídeo pode ser gerado sinteticamente.”

Kundu e seus colegas treinaram um detector universal alimentado por IA para monitorar vários elementos de fundo e rostos de pessoas em vídeos. Você pode detectar sinais sutis de inconsistência espacial e temporal em deepfakes. O resultado é a capacidade de detectar condições de iluminação inconsistentes em pessoas inseridas artificialmente em vídeos de troca de rosto, inconsistências nos detalhes de fundo em vídeos totalmente gerados por IA e até mesmo sinais de manipulação de IA em vídeos sintéticos que não incluem rostos humanos. O detector também sinaliza cenas de aparência realista em videogames como Grand Theft Auto V que não são necessariamente geradas por IA.

“A maioria das técnicas existentes processa vídeos faciais gerados por IA, como troca de rostos, vídeos com sincronização labial e reconstrução facial que anima rostos a partir de uma única imagem.” Siwei Liu na Universidade de Buffalo, em Nova York. “O escopo deste método é mais amplo.”

O detector universal alcançou 95-99 por cento de precisão na identificação de quatro conjuntos de vídeos de teste contendo deepfakes manipulados por rosto. Isso supera todos os outros métodos publicados para detectar esse tipo de deepfakes. Ao monitorar vídeos totalmente sintetizados, obtivemos resultados mais precisos do que outros detectores avaliados anteriormente. pesquisadores publicaram seu trabalho Na Conferência IEEE 2025 sobre Visão Computacional e Reconhecimento de Padrões, realizada em Nashville, Tennessee, em 15 de junho.

Vários pesquisadores do Google também participaram do desenvolvimento do novo detector. O Google não respondeu às perguntas sobre se esse método de detecção ajudaria a detectar deepfakes em suas plataformas, como o YouTube. No entanto, a empresa está entre as empresas que apoiam ferramentas de marca d’água que facilitam a identificação do conteúdo gerado por sistemas de IA.

Os detectores universais também podem ser melhorados no futuro. Por exemplo, seria útil poder detectar deepfakes implantados durante videoconferências ao vivo, e alguns fraudadores já começaram a usar esta técnica.

“Como saber se a pessoa do outro lado é real ou se o vídeo foi gerado com um deepfake? E você pode saber mesmo se o vídeo viaja por uma rede e é afetado pelas características da rede, como a largura de banda disponível?” Amit Roy Chowdhury Na Universidade da Califórnia, Riverside. “Essa é outra direção que estamos considerando no laboratório.”

tópico:

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui