Um usuário do ChatGPT acreditou recentemente que apresentaria uma nova fórmula matemática ao mundo, graças ao seu intercâmbio com a inteligência artificial, de acordo com New York Times. O homem acredita que a descoberta o tornará rico e fica obcecado por um novo e grandioso delírio, mas o ChatGPT acaba admitindo que o enganou. Ele não tem histórico de doença mental.
Muitas pessoas conhecem os riscos de falar com um chatbot de IA como ChatGPT ou Gemini, incluindo receber informações desatualizadas ou imprecisas. Às vezes, os chatbots também têm alucinações, criando fatos que não são verdadeiros. Um risco menos conhecido, mas emergente rapidamente, é um fenómeno que alguns chamam de “psicose da IA”.
Usuários ávidos de chatbot estão progredindo com histórias sobre como, após algum tempo de uso intensivo, desenvolveram psicose. Os estados mentais alterados, nos quais as pessoas perdem o contato com a realidade, geralmente incluem delírios e alucinações. O psiquiatra está procurandoE às vezes hospitalizadopacientes que se tornam psicóticos com o uso excessivo de chatbots.
Tudo o que você precisa saber sobre companheiros de IA
Os especialistas alertam que a IA é apenas um factor que contribui para a psicose, mas o envolvimento intenso com chatbots pode aumentar o factor de risco de pensamento delirante pré-existente.
Dr. Keith Sakata, psiquiatra da Universidade da Califórnia em São Francisco, disse ao Mashable que a psicose poderia ser realizada através de novas tecnologias. A televisão e a rádio, por exemplo, tornaram-se parte do imaginário da sociedade quando foram introduzidas e continuam a desempenhar um papel hoje.
Os chatbots de IA, disse ele, podem validar o pensamento das pessoas e impedi-las de “buscar” a realidade. Sakata hospitalizou 12 pessoas neste ano que sofreram psicose após o uso de IA.
“A razão pela qual a IA pode ser perigosa é porque a psicose se desenvolve quando a realidade já não a suporta, e a IA pode realmente suavizar essas paredes”, disse Sakata. “Não creio que a IA cause psicose, mas penso que pode aumentar a vulnerabilidade.”
Aqui estão os fatores de risco e sinais de psicose, bem como o que fazer se você ou alguém que você conhece apresentar sintomas:
Fatores de risco para experimentar psicose
Sakata disse que alguns dos 12 pacientes que tratou até agora em 2025 têm vulnerabilidades subjacentes semelhantes: isolamento e solidão. Esses pacientes, que são adultos jovens e de meia-idade, ficam gravemente desconectados de suas redes sociais.
Embora estivessem firmemente enraizados no mundo real antes da utilização da IA, alguns estão a começar a utilizar a tecnologia para explorar problemas ou questões complexas. Eventualmente, eles desenvolvem delírios, também conhecidos como crenças falsas.
Este tweet não está disponível no momento. Pode estar carregando ou foi excluído.
Conversas longas também parecem ser um fator de risco, disse Sakata. Interações prolongadas podem fornecer mais oportunidades para o surgimento de delírios devido a múltiplas perguntas do usuário. As trocas de longo prazo também podem desempenhar um papel ao proporcionar aos usuários noites sem dormir e oportunidades para delírios que testam a realidade.
Um especialista da empresa de IA Anthropic também contou a história New York Times Que chatbots podem ter dificuldade em detectar quando eles “vagueiam por território irracional” durante longas conversas.
A psiquiatra do UT Southwestern Medical Center, Dra. Darlene King, não avaliou ou tratou pacientes cuja psicose ocorreu junto com o uso de IA, mas ela disse que altos níveis de confiança em chatbots podem aumentar a vulnerabilidade de uma pessoa, especialmente se a pessoa já estiver solitária ou isolada.
Relatório de tendências quebráveis
King, que também é presidente do comitê de TI de saúde mental da Associação Americana de Psiquiatria, disse que a alta confiança inicial nas respostas de um chatbot pode tornar difícil para alguém reconhecer os erros ou alucinações de um chatbot.
Além disso, os chatbots que são demasiado agradáveis, ou bajuladores, bem como propensos a alucinações, podem aumentar o risco de psicose para os utilizadores, juntamente com outros factores.
Étienne Brisson fundou Projeto Linha Humana no início deste ano, depois que um membro da família acreditou em uma série de delírios que discutiram com o ChatGPT. Este projeto oferece suporte de pares para pessoas que têm experiências semelhantes com chatbots de IA.
Brisson afirma que existem três temas comuns nestes cenários: A criação de um relacionamento amoroso com o chatbot em que o usuário acredita conscientemente; discussão de temas importantes, incluindo novos conceitos científicos e ideias de negócios; e conversas sobre espiritualidade e religião. Neste último caso, as pessoas podem acreditar que o chatbot de IA é Deus ou que estão falando com um mensageiro profético.
“Eles ficam presos nessa grande ideia”, disse Brisson sobre o apelo que essas discussões têm entre os usuários.
Sinais de psicose
Sakata disse que a sociedade deveria ver a psicose como um sintoma de uma condição médica, e não como a doença em si. Esta distinção é importante porque as pessoas podem acreditar erroneamente que o uso da IA pode causar perturbações psicóticas, como a esquizofrenia, mas não há provas que sugiram isso.
Em vez disso, tal como a febre, a psicose é um sintoma de que “o seu cérebro não está a computar adequadamente”, disse Sakata.
Aqui estão alguns sinais de que você pode estar sofrendo de psicose:
-
Mudanças repentinas de comportamento, como não comer ou não ir trabalhar
-
Crença em ideias novas ou grandiosas
-
Falta de sono
-
Desconexão dos outros
-
Concordar ativamente com possíveis delírios
-
Sentindo-se preso em um ciclo de feedback
-
Querer machucar a si mesmo ou aos outros
O que fazer se você acha que você ou alguém de quem você gosta está passando por psicose
Sakata exorta as pessoas que estão preocupadas se a psicose está afetando a elas ou a seus entes queridos que procurem ajuda o mais rápido possível. Isso pode significar entrar em contato com um médico de atenção primária ou psiquiatra, ligar para uma linha de crise ou até mesmo conversar com um amigo ou familiar de confiança. Em geral, contar com o apoio social como utilizador afetado é fundamental para a recuperação.
Sempre que a psicose aparece como sintoma, um psiquiatra deve realizar uma avaliação abrangente, disse King. O tratamento pode variar dependendo da gravidade dos sintomas e da causa. Não existe tratamento específico para psicose associada ao uso de IA.
Sakata diz que certos tipos de terapia cognitivo-comportamental, que ajudam os pacientes a mudar os seus delírios, podem ser eficazes. Medicamentos como antipsicóticos e estabilizadores de humor podem ajudar em casos graves.
Sakata recomenda o desenvolvimento de sistemas para monitorar o uso de IA, bem como um plano para obter ajuda se o uso de chatbots piorar ou reacender delírios.
Brisson diz que as pessoas podem relutar em obter ajuda, mesmo que estejam dispostas a falar sobre os seus delírios com amigos e familiares. É por isso que é importante que eles se conectem com outras pessoas que passaram pela mesma experiência. O Projeto Linha Humana facilita essas conversas através de seu site.
Das mais de 100 pessoas que compartilharam suas histórias com o Projeto Linha Humana, Brisson disse que cerca de um quarto foram hospitalizadas. Ele também observou que eles vinham de origens diferentes; muitos têm famílias e carreiras profissionais, mas acabam enredados em chatbots de IA que introduzem e reforçam o pensamento delirante.
“Você não está sozinho, você não é o único”, disse Brisson sobre usuários que estão delirando ou sofrendo de psicose. “Não é sua culpa.”
Divulgação: Ziff Davis, empresa controladora da Mashable, entrou com uma ação judicial contra a OpenAI em abril, acusando-a de violar os direitos autorais de Ziff Davis no treinamento e operação de seu sistema de IA.
Se você estiver se sentindo suicida ou passando por uma crise de saúde mental, converse com alguém. Você pode ligar ou enviar uma mensagem de texto para 988 Suicide & Crisis Lifeline no 988 ou conversar no 988lifeline.org. Você pode entrar em contato com a Trans Lifeline ligando para 877-565-8860 ou o Projeto Trevor pelo telefone 866-488-7386. Envie “START” para a Linha de Texto de Crise em 741-741. Ligue para a linha de ajuda da NAMI em 1-800-950-NAMI, de segunda a sexta, das 10h00 às 22h00 horário do leste dos EUA, ou envie um e-mail (e-mail protegido). Se você não gostar desta ligação, considere usar o 988 Suicide and Crisis Lifeline Chat no crisechat.org. Este é um lista de recursos internacionais.
Tópico
Bem Social Inteligência Artificial


