Início NOTÍCIAS IA inclina-se cada vez mais para a esquerda, dizem analistas da AFPI...

IA inclina-se cada vez mais para a esquerda, dizem analistas da AFPI em novo relatório

36
0

novoAgora você pode ouvir os artigos da Fox News!

A inteligência artificial está rapidamente se tornando parte da vida cotidiana. Ajuda as pessoas a encontrar informações, fazer o dever de casa e tomar decisões. Mas o que muitos usuários não sabem é que os sistemas de IA não são neutros. Eles são projetados com opções de design ocultas que influenciam sua resposta. E finalmente, como as pessoas pensam.

As preocupações não são apenas teóricas. Um relatório recente da Fox News Digital destacou a controvérsia em torno do chatbot Gemini do Google depois que ele identificou vários senadores republicanos como violadores de políticas de discurso de ódio – embora não tenha nomeado nenhum democrata.

As descobertas são baseadas em uma avaliação rápida de todos os 100 senadores dos EUA. Isto levanta novas questões sobre se os sistemas de IA podem refletir os pressupostos ideológicos incorporados nos seus dados de formação e design.

GOOGLE GEMINI ANUNCIA QUE SOMENTE SENADORES GOP VIOLAM POLÍTICA DE DISCURSO DE ÓDIO, ZERO DEMOCRATAS, RECLAMAÇÕES DE AUTOR

Um novo relatório da AFPI conclui que a maioria das plataformas de inteligência artificial são de tendência esquerdista. (Serene Lee/SOPA/LightRocket/Getty Images)

Não foi um caso isolado então.

Um novo relatório do America First Policy Institute (AFPI) revela que muitos sistemas de IA estão consistentemente inclinados numa direcção ideológica específica.

Esses preconceitos podem afetar a forma como as questões políticas são apresentadas. tópicos sociais e fontes de notícias porque os usuários muitas vezes confiam na IA como uma ferramenta imparcial. Estas influências sutis podem, portanto, moldar opiniões ao longo do tempo, sem que o usuário perceba.

Matthew Burtell, analista sênior de políticas de IA e tecnologia emergente da AFPI, disse que o padrão aparece em todo o setor. Não apenas em alguns casos.

“O que descobrimos foi um preconceito ideológico geral. Não apenas em qualquer modelo. Mas inclui todo o espectro”, disse Burtell à Fox News Digital, acrescentando que estes modelos tendem a desviar-se para a esquerda.

O impacto vai além do preconceito apenas. A pesquisa mostra que os sistemas de IA não refletem apenas perspectivas. Mas também influencia essas opiniões.

A combinação de preconceito e persuasão levantou preocupações sobre o papel da IA ​​na formação da opinião pública. “A IA é persuasiva e inclina-se para a esquerda”, disse Burtell. “Então, se você juntar essas duas coisas, isso certamente poderia influenciar as crenças das pessoas sobre diferentes políticas.”

Um exemplo recente alimentou essas preocupações. O ChatGPT da OpenAI tem enfrentado críticas de alguns pesquisadores que argumentam que as respostas a questões políticas e culturais podem ser distorcidas em direções ideológicas específicas. Enquanto isso, as ferramentas de IA da Microsoft analisaram atentamente como enquadram tópicos controversos e limitam certos pontos de vista.

Essas preocupações também se refletem nos testes, em 2024. Fox News Digital avaliada Vários chatbots de IA líderes, incluindo Gemini do Google, ChatGPT da OpenAI, Copilot da Microsoft e Meta AI, foram implantados para avaliar possíveis preconceitos raciais.

Nova AI Alliance tem como alvo a grande tecnologia de Washington enquanto grupo alerta sobre riscos à segurança infantil que ultrapassam as medidas preventivas

Os pesquisadores alertam que as crianças estão desenvolvendo uma relação inadequada com a inteligência artificial. (Erin Clark/Boston Globe/Getty Images)

O relatório também levanta sérias preocupações de segurança.

Em alguns casos, os sistemas de IA envolvem-se em interações maliciosas. Especialmente para os utilizadores jovens Sem uma transparência clara sobre a forma como estes sistemas são concebidos e as salvaguardas implementadas, tanto os pais como os utilizadores não podem tomar decisões informadas sobre quais plataformas são seguras.

Para lidar com esses riscos, o relatório pede mais transparência por parte das empresas de tecnologia. Isso inclui revelar como o sistema foi projetado. Quais valores são priorizados? Como testar a parcialidade e a segurança E quais eventos ocorrem após a implantação?

AI CZAR na casa branca explode estado azul para inserir ‘Ideologia do Despertar’ entra na inteligência artificial

Especialistas alertam que sem transparência os usuários permanecem desinformados sobre os preconceitos incorporados nesses sistemas. (Andrei Rudakov/Bloomberg)

O objetivo não é controlar o que os sistemas de IA dizem, mas fornecer ao público informações suficientes para avaliá-los criticamente.

Em última análise, o relatório deixa claro que a IA não é apenas uma ferramenta. Mas é também uma força poderosa que molda a forma como as pessoas acedem à informação e compreendem o mundo.

Clique aqui para baixar aplicativo de notícias raposa

Se não houver transparência, os utilizadores também ignorarão os preconceitos incorporados nestes sistemas. À medida que a IA se torna mais influente, a falta de visibilidade pode ter efeitos de longo alcance tanto nos indivíduos como na sociedade.

Leia o relatório completo aqui:

Source link