Início NOTÍCIAS O algoritmo de ‘código aberto’ do X não é transparente para vencer,...

O algoritmo de ‘código aberto’ do X não é transparente para vencer, dizem os pesquisadores

35
0

Desde 10 a própria dor publicada no código No mês passado, o algoritmo “para você” é o poder do algoritmo, Elon Musk disse que o sucesso do movimento é a transparência. “Sabemos que o algoritmo é burro e precisa de grandes melhorias, mas certamente estamos nos esforçando para melhorá-lo em tempo real e com mais transparência”, disse Musk. ele escreveu. “Nenhuma outra empresa de mídia social faz isso.”

Embora seja verdade que X é a única grande rede social aberta a elementos do seu algoritmo de recomendação, os investigadores dizem que o que a empresa publicou não oferece o tipo de transparência que pode ser útil para qualquer pessoa que tente compreender como X funcionou em 2026.

O código, assim como a versão anterior publicada em 2023, é uma versão “redigida” do algoritmo X, de acordo com John Thickstun, professor assistente de ciência da computação na Universidade Cornell. “O que me incomoda nesses lançamentos é que eles fingem dar transparência ao código de lançamento e a sensação de que alguém pode usar esse lançamento para fazer algum trabalho ou inspecionar o trabalho”, disse Thickstun ao Engadget. “E a situação é tal que não é de todo possível.”

Previsivelmente, quando o código foi lançado pela primeira vez, os usuários começaram a postar longos tópicos sobre o que isso significa para os criadores, na esperança de aumentar sua visibilidade na plataforma. Por exemplo uma postagem que foi visto mais de 350.000 vezes e solicita aos usuários que movam 10 “recompensa pessoas que convertem” e “10 shakes”. Outra postagem afirma ter mais de 20.000 visualizações postagem de vídeo a resposta é outra depois ele diz que os usuários devem manter sua “ansiedade” porque “mudar de posição machuca você”. Mas alertamos muito o Thickstun para não ler as supostas estratégias para se tornar viral. “De forma alguma”, diz ele, “eles podem ser concluídos a partir da demissão”.

Embora existam algumas sutilezas que destacam como o X recomenda painéis – por exemplo, ele filtra conteúdo que é mais do que prolixo – Thickstun diz que há muita coisa “impraticável” para os criadores de conteúdo.

Na verdade, uma das maiores diferenças entre o algoritmo atual e a versão lançada em 2023 é que o novo sistema é baseado em um modelo de linguagem semelhante ao Grok com certo grau de dignidade. “Na versão anterior isso era codificado: toda vez que você curtia algo, toda vez que algo era compartilhado, toda vez que algo era respondido… e então você calcula a pontuação a partir disso, e então coloca a postagem a partir do nome”, explica Ruggerus Lazzaroni, pesquisador PhD da Universidade de Graz. “Agora a pontuação não é derivada da quantidade de itens e coisas do gênero, mas da probabilidade de Grok achar que você deseja compartilhar a postagem.”

Isso torna o algoritmo ainda mais opaco do que antes, diz Thickstun. “É muito mais uma questão de tomada de decisões… elas se tornam redes neurais de caixa preta que operam com base em seus dados”, disse ele. “Cada vez mais, o poder de tomada de decisão destes algoritmos varia não só de acordo com a opinião pública, mas na verdade até mesmo da visão ou compreensão dos engenheiros internos que trabalham nestes sistemas, porque estão envolvidos nestas redes neurais.”

Ainda menos preciso sobre alguns aspectos do algoritmo lançado em 2023, o comunicado incluía informações sobre como a empresa avaliava diversas interações para determinar quais postagens deveriam ser mais altas. Por exemplo: a resposta “valeu” 27 retuítes e a resposta gerada pela resposta do autor valeu 75 retuítes. Mas X reduziu agora a informação sobre como gasta nestes casos, dizendo que excluiu esta informação “por razões de segurança”.

Além disso, o código não contém nenhuma informação sobre os dados nos quais o algoritmo foi treinado, o que pode ajudar pesquisadores e outras pessoas a entendê-los ou ouvi-los. “Uma das coisas que quero ver é quais são os dados de treinamento que eles usam para este modelo”, diz Mohsen Foroughifar, professor de tecnologia empresarial na Carnegie Mellon University. “Se os dados usados ​​para este modelo fossem inerentemente tendenciosos, o modelo ainda seria destacado, independentemente do tipo de modelo que você está olhando”.

Poder realizar pesquisas sobre o algoritmo de recomendação X seria muito importante, afirma Lazzaroni, que trabalha no assunto. Financiado pela UE um projeto para explorar algoritmos de recomendação alternativos para plataformas de mídia social. Grande parte do trabalho de Lazzaroni envolve a simulação de plataformas de mídia social do mundo real para testar diferentes abordagens. Mas ele diz que o código divulgado pelo X não contém informações suficientes para que o algoritmo reproduza sua recomendação.

“Temos o código do algoritmo, mas é preciso rodar o modelo para rodar o algoritmo”, disse ele.

Se os pesquisadores fossem capazes de estudar o algoritmo X, isso poderia gerar insights que poderiam quebrar mais do que apenas plataformas de mídia social. Muitas das mesmas questões e preocupações levantadas sobre algoritmos de mídia social provavelmente ressurgirão no contexto dos chatbots de IA. “Muitos desses desafios que vimos em plataformas de mídia social e (sistemas) de recomendação também parecem muito semelhantes a esses sistemas generativos”, disse Thickstun. “Assim, você pode extrapolar os tipos de desafios que vimos nas mídias sociais para os tipos de desafios que veremos na interação com a plataforma GenAI.”

Lazzaroni, que passa muito tempo simulando alguns comportamentos nocivos das pessoas nas redes sociais, é ainda mais obtuso. “As empresas de IA, a fim de maximizar o lucro, otimizam grandes modelos de linguagem para o envolvimento do usuário, não para dizer a verdade ou para se preocupar com a saúde mental dos usuários. E este é exatamente o mesmo problema: elas obtêm mais lucro, mas os usuários pioram a sociedade, ou pioram a saúde mental com isso.”

Source link