Início APOSTAS Comitê de supervisão aponta que gerenciamento de meta deepfake não é suficiente

Comitê de supervisão aponta que gerenciamento de meta deepfake não é suficiente

12
0

A metodologia de Mehta para identificar deepfakes “não é suficientemente robusta ou abrangente” para combater a rápida propagação de desinformação durante conflitos armados como a guerra do Irão. Isso vem do Meta Oversight Board, um órgão semi-independente que orienta as práticas de moderação de conteúdo da empresa, que atualmente está pedindo à Meta que reformule a forma como exibe e rotula o conteúdo gerado por IA no Facebook, Instagram e Threads.

A raiz do apelo à ação é Investigação de vídeos falsos de IA Em relação às alegações de danos a edifícios israelitas partilhadas nas plataformas sociais da Meta no ano passado, o conselho disse que as suas recomendações eram particularmente relevantes agora, dada a “escalada militar massiva” em todo o Médio Oriente esta semana. No seu anúncio, o Conselho afirmou que, com o risco crescente de as ferramentas de IA serem utilizadas para espalhar desinformação, o acesso a informações precisas e fiáveis ​​é fundamental para a segurança das pessoas.

“As conclusões do comitê destacam que o sistema atual do Meta para rotular adequadamente o conteúdo de IA depende muito da auto-revelação e da revisão incremental do uso de IA, e não atende às realidades do ambiente online de hoje”, disse o Comitê de Supervisão do Meta. “Este caso também destaca os desafios da disseminação multiplataforma de conteúdo que parece ter se originado no TikTok antes de aparecer no Facebook, Instagram e X.”

As ações recomendadas emitidas pelo conselho incluem incentivar o Meta a melhorar suas regras existentes sobre desinformação para combater deepfakes enganosos e estabelecer novos padrões comunitários separados para conteúdo gerado por IA. A Meta também é obrigada a desenvolver melhores ferramentas de detecção de IA, garantir a transparência nas penalidades para violações das políticas de IA e expandir os esforços para rotular o conteúdo de IA. Este último inclui adicionar rótulos de “IA de alto risco” a imagens e vídeos sintéticos com mais frequência e melhorar a implementação de C2PA (também conhecidas como credenciais de conteúdo) para que as informações sobre o conteúdo gerado por IA sejam “exibidas claramente e acessíveis aos usuários”.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui