O Google afirma que atualizou o Gemini para direcionar melhor os usuários para obter recursos de saúde mental em momentos de crise. A mudança ocorre no momento em que a gigante da tecnologia enfrenta um processo por homicídio culposo, acusando o chatbot de “treinar” um homem a cometer suicídio, o mais recente de uma série de processos que alegam danos tangíveis causados por produtos de IA.
Gemini já lançou um módulo “Ajuda está disponível” que direciona os usuários para recursos para crises de saúde mental, como uma linha direta para suicídio ou uma linha de texto para crises, quando uma conversa indica que um usuário está em uma crise potencial relacionada ao suicídio ou automutilação. O Google diz que a atualização – na verdade um redesenho – irá alinhá-la a uma interface de “um toque” que tornará mais fácil para os usuários obterem ajuda rapidamente.
O Google diz que o módulo de ajuda tem respostas mais empáticas, projetadas para “encorajar as pessoas a procurar ajuda”. Uma vez ativado, “a opção de acesso à ajuda profissional ficará clara” durante o resto da conversa.
O Google afirma que está trabalhando com especialistas médicos na reformulação e está comprometido em apoiar usuários em crises. Anunciou US$ 30 milhões em financiamento mundial durante os próximos três anos para “ajudar as linhas diretas globais”.
Tal como outros fornecedores líderes de chatbot, o Google enfatizou que o Gemini “não é um substituto para cuidados médicos profissionais, terapia ou apoio em crises”, mas reconheceu que muitas pessoas o utilizam para obter informações de saúde, inclusive em momentos de crise.
A atualização ocorre em meio a uma extensa revisão sobre quão adequadas são realmente as salvaguardas da indústria. Relatórios e investigações, incluindo a nossa investigação para fornecer provas críticas, muitas vezes sinalizam casos em que os chatbots falham com utilizadores vulneráveis, ajudam a encobrir distúrbios alimentares ou planeiam tiroteios. O Google costuma se sair melhor do que muitos de seus concorrentes nesses testes, mas não é perfeito. Outras empresas de IA, incluindo OpenAI e Anthropic, também tomaram medidas para identificar utilizadores vulneráveis e melhorar o suporte.



