“Estamos entrando em uma nova era de guerra de informação nas plataformas de mídia social, onde os avanços tecnológicos tornaram impossível a abordagem da automação clássica”, afirma Jonas Kunst, professor de comunicação na BI Business Analyst Norway e um dos coautores do relatório.
Para os especialistas que passam anos a acompanhar e a combater campanhas de distorção, o documento apresenta uma perspectiva aterradora.
“E se a IA não apenas fornecesse informações alucinantes, mas milhares de chatbots de IA se unissem para dar uma espécie de apoio popular onde não havia nenhum? Esse é o futuro que este artigo imagina – fazendas de trolls russos com esteróides”, diz Nina Jankowicz, ex-czar da distorção da administração Biden, que agora é CEO do American Sunlight Project.
Os pesquisadores dizem que não está claro se esta técnica já foi usada porque os sistemas atuais projetados para identificar e disfarçar comportamentos inautênticos não podem ser detectados.
“Como as expressões faciais são enganosas para as pessoas imitarem, é muito difícil detectá-las e avaliar até que ponto estão presentes”, diz Kunst. “Não temos acesso à maioria das plataformas (redes sociais) porque as plataformas se tornaram mais restritivas, por isso é difícil ver através delas. Tecnicamente, é definitivamente possível. Temos certeza de que está sendo tentado.”
Kunst acrescentou que estes sistemas provavelmente ainda terão alguma supervisão humana à medida que crescem, e prevê que, embora possam não ter impacto nas eleições intercalares de Novembro de 2016 nos EUA, serão provavelmente utilizados para perturbar as eleições presidenciais.
Contas indiscretas de pessoas em plataformas de redes sociais são apenas um problema. Além disso, a capacidade de representar as redes sociais em escala, dizem os investigadores, permitir-lhes-ia coordenar campanhas de desinformação para conseguir agentes de extrema importância em comunidades específicas.
“Equipado com tais capacidades, ele examina o site mais importante e adapta as mensagens às crenças e sugestões culturais de cada comunidade para atingir com mais precisão do que com botnets anteriores”, escrevem.
Tais sistemas poderiam essencialmente melhorar usando o feedback das suas respostas às mensagens para melhorar os seus métodos de entrega de uma mensagem melhor. “Com sinais suficientes, eles podem executar milhões de testes microA/B, propagar variantes vencedoras na velocidade da máquina e iterar muito mais rápido que os humanos”, escrevem os pesquisadores.
Para examinar a ameaça representada pela IA, os investigadores recomendam a formação de um “Observatório de Influência da IA”, que seria composto por pessoas de grupos académicos e organizações não governamentais que trabalham para obter “evidências significativas, melhorar a consciência situacional e permitir uma resposta colectiva mais rápida do que a imposição de sanções de alto perfil”.
Um grupo não é composto por executivos das próprias plataformas de redes sociais, principalmente porque os investigadores acreditam que incentivam as suas equipas a lutar acima de tudo e, portanto, têm pouco incentivo para identificar estas questões.
“Digamos que os testes de IA se tornem tão frequentes que você não possa confiar em ninguém e as pessoas abandonem a plataforma”, diz Kunst. “Claro que aí o modelo fica ameaçado. Se aumentarem tanto o engajamento, isso é melhor para a plataforma revelar, porque parece que quanto mais engajamento, mais anúncios vistos, o que com certeza será valorizado pela empresa.”
Os especialistas acreditam que não está envolvido um pequeno incentivo dos governos, bem como uma falta de ação das plataformas. “O cenário geopolítico do país pode não ser favorável para que os ‘Observatórios’ monitorizem as discussões online”, diz Olejnik. Jankowicz concorda: “O que é mais assustador neste futuro é que há pouca vontade política para lidar com os danos que a IA cria, o que significa que (os testes de IA) poderão em breve tornar-se uma realidade”.



