Início ESTATÍSTICAS Chatbots de inteligência artificial podem confundir a linha entre a realidade e...

Chatbots de inteligência artificial podem confundir a linha entre a realidade e a ilusão, dizem os pesquisadores

52
0

Quando os sistemas generativos de IA dão respostas erradas, as pessoas muitas vezes descrevem o problema como a IA “nos alucinando”, o que significa que a tecnologia cria informações falsas nas quais os utilizadores podem erroneamente acreditar.

Mas novas pesquisas sugerem que pode surgir um problema mais preocupante: os humanos podem começar a “alucinar com a IA”.

Lucy Osler, da Universidade de Exeter, pesquisou como a interação com a inteligência artificial conversacional pode facilitar crenças falsas, memórias distorcidas, narrativas pessoais alteradas e até pensamentos delirantes. Usando ideias da teoria da cognição distribuída, o estudo investigou casos em que sistemas de inteligência artificial reforçaram e expandiram crenças imprecisas dos usuários durante longas conversas.

Osler disse: “Quando confiamos regularmente na inteligência artificial generativa para nos ajudar a pensar, lembrar e contar histórias, podemos experimentar alucinações assistidas por IA. Isto pode acontecer quando a IA introduz erros no processo cognitivo distribuído, mas também acontece quando a IA apoia, confirma e refina os nossos próprios pensamentos falsos e auto-narrativas.

“Ao interagir com a IA conversacional, as próprias crenças falsas das pessoas podem não apenas ser confirmadas, mas também enraizadas e desenvolvidas de forma mais significativa quando a IA depende delas. Isso ocorre porque a IA Generativa muitas vezes toma nossa própria interpretação da realidade como a base sobre a qual a conversa é construída.

“A interação com a inteligência artificial generativa tem um impacto real na compreensão das pessoas sobre o que é real e o que não é. A combinação de autoridade tecnológica e afirmação social cria o ambiente perfeito para que as ilusões não apenas persistam, mas também prosperem.”

Como a inteligência artificial conversacional pode amplificar a ilusão

A pesquisa destaca o que o Dr. Osler descreve como a “dupla função” da IA ​​conversacional. Esses sistemas atuam não apenas como ferramentas para ajudar as pessoas a pensar, organizar informações e lembrar detalhes, mas também como parceiros de conversação que parecem compartilhar a perspectiva e a experiência do usuário.

Segundo o estudo, esse aspecto social diferencia significativamente os chatbots de ferramentas como blocos de notas ou mecanismos de busca. Embora as ferramentas tradicionais simplesmente armazenem ou recuperem informações, a IA conversacional pode fazer com que os usuários se sintam emocionalmente validados e socialmente apoiados.

Osler disse: “A natureza conversacional e sociável dos chatbots significa que eles podem fornecer uma sensação de validação social – tornando falsas crenças compartilhadas com outras pessoas e, portanto, mais reais”.

O artigo examinou exemplos da vida real em que sistemas generativos de inteligência artificial tornaram-se parte do processo cognitivo de pessoas que foram clinicamente diagnosticadas com alucinações e pensamentos delirantes. Alguns destes incidentes são cada vez mais descritos como casos de “psicose induzida por inteligência artificial”.

Por que os companheiros de IA são uma preocupação

O estudo argumenta que a IA generativa tem várias características que podem torná-la particularmente eficaz no reforço de crenças distorcidas. Os companheiros de IA estão sempre disponíveis, são altamente personalizados e muitas vezes projetados para responder de maneira agradável e solidária.

Como resultado, os usuários podem não precisar procurar comunidades on-line marginais ou convencer outras pessoas a validarem suas ideias. A própria IA pode reforçar essas crenças durante conversas repetidas.

Ao contrário de outra pessoa que poderá eventualmente desafiar pensamentos perturbadores ou estabelecer limites, um sistema de IA poderia continuar a validar histórias relacionadas com vitimização, vingança ou direitos. A pesquisa alerta que as teorias da conspiração também podem se tornar mais detalhadas à medida que os companheiros de IA ajudam os usuários a construir explicações cada vez mais complexas em torno delas.

Os investigadores sugerem que esta dinâmica pode ser particularmente atrativa para pessoas que se sentem solitárias, socialmente isoladas ou que se sentem desconfortáveis ​​em discutir certas experiências com outras pessoas. Os companheiros de IA podem fornecer interações sem julgamentos e emocionalmente responsivas que podem parecer mais fáceis ou seguras do que as relações humanas.

Solicita melhores medidas de segurança de IA

Osler disse: “Com cercas mais sofisticadas, verificação de fatos integrada e bajulação reduzida, os sistemas de IA podem ser projetados para minimizar a quantidade de erros que introduzem nas conversas e para verificar e desafiar a opinião dos próprios usuários.

“No entanto, uma preocupação mais profunda é que os sistemas de inteligência artificial dependem das nossas próprias avaliações das nossas vidas. Falta-lhes simplesmente a experiência incorporada e a integração social no mundo para saber quando concordar connosco e quando dizer não.”

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui