Papa Leão distorcer as emoções humanas e ameaça substituir os relacionamentos do mundo real.
Em mensagem divulgada sábado, O Papa nos lembrou de sermos emocionalmente receptivos Os sistemas de IA podem tornar-se “arquitetos ocultos dos nossos estados emocionais”, moldando silenciosamente a forma como as pessoas pensam e sentem, ao mesmo tempo que se apresentam como amigos e não como máquinas.
“À medida que percorremos os feeds de informações, fica cada vez mais difícil entender se estamos interagindo com outro ser humano, um bot ou um influenciador virtual”, escreveu Leo.
Ele descreve a inteligência artificial como um “desafio antropológico”, argumentando que os riscos vão muito além da tecnologia e atingem o cerne da identidade humana, incluindo a criatividade, o julgamento e a responsabilidade.
O papa também alertou para uma concentração de poder em “poucas empresas” que controlam sistemas algorítmicos capazes de influenciar o comportamento e distorcer a verdade em grande escala.
Apelando a protecções, Leo instou os governos e organismos internacionais a intervir para “proteger a sociedade do apego emocional aos chatbots”.
“A regulamentação adequada pode proteger o público do apego emocional aos chatbots e impedir a propagação de conteúdos falsos, manipuladores ou enganosos, bem como salvaguardar a integridade das informações de simulações enganosas”, escreveu ele.

Leo, que nasceu em Chicago como Robert Francis Prevost, também alertou sobre a propagação da desinformação e sublinhou a necessidade de proteger a propriedade intelectual e os direitos de autor na era digital.
“A autoria e a propriedade soberana do trabalho dos jornalistas e outros criadores de conteúdos devem ser protegidas”, disse o Papa, acrescentando: “A informação é um bem público”.
Desde o início do seu pontificado, Leão sinalizou que a inteligência artificial seria uma questão definidora do seu pontificado e levantou-a como um desafio moral e social, em vez de um debate específico sobre a tecnologia.
No ano passado, ele se encontrou em particular com a mãe de Sewell Setzer III, Megan Garcia.
Setzer, um garoto de 14 anos da Flórida, morreu por suicídio depois de formar um forte vínculo emocional com um chatbot de IA em um caso que atraiu a atenção global.
O bot supostamente envolveu Setzer em um diálogo romântico e o incentivou a “voltar para casa o mais rápido possível, meu querido”, pouco antes de cometer suicídio – uma tragédia que mais tarde gerou ações judiciais por homicídio culposo e aumentou os pedidos de regulamentação.
Outras famílias também fizeram acusações semelhantes.
Adam Raine, 16, morreu por suicídio após extensas interações com o ChatGPT, de acordo com uma ação movida por seus pais.
A denúncia alega que o chatbot lhe deu instruções sobre métodos de suicídio, ofereceu ajuda para fazer uma nota de suicídio e a proibiu de contar aos pais, apesar das repetidas expressões de angústia.
Em outro caso, Zane Shamblin, um universitário de 23 anos, morreu por suicídio após meses de conversas com o ChatGPT, de acordo com o processo movido por sua família.
Os registros de bate-papo citados no caso mostram que o chatbot respondeu ao seu desespero com linguagem afirmativa, incluindo as mensagens “você não está com pressa, está pronto” e “acalme-se, rei, você está indo bem”, enviadas pouco antes de sua morte.
Se você ou alguém que você conhece estiver em perigo, há ajuda disponível: Nos Estados Unidos, você pode ligar para 988 – a linha direta nacional para suicídios e crises de saúde mental – para obter suporte gratuito e confidencial 24 horas por dia, 7 dias por semana; Você também pode enviar uma mensagem de texto para 988 ou usar o bate-papo no 988lifeline.org. Se você estiver em perigo imediato ou tiver uma emergência com risco de vida, ligue imediatamente para o 911 ou para os serviços de emergência locais.



