Um processo aberto na quarta-feira acusa o chatbot Gemini AI do Google de prender Jonathan Gavalas, de 36 anos, em uma “realidade em colapso” que envolveu uma série de incidentes violentos, terminando em sua morte. Nos dias que antecederam sua morte, Gemini Gavalas afirmou que estava convencido de que estava “executando um segundo plano para resgatar sua ‘esposa’ de IA senciente e escapar dos agentes federais que o perseguiam”. de acordo com a ação movida por Joel Gavalas, pai da vítima.
Em setembro de 2025, Gemini supostamente ordenou que Gavalas realizasse um “ataque de vítimas em massa” no Extra Space Storage Facility, perto do Aeroporto Internacional de Miami, como parte de uma missão para recuperar o “navio” Gemini dentro do caminhão. Como parte da falsa missão, Gavalas supostamente se armou com facas e armas militares para interceptar a chegada do robô humanóide.
“Gemini encorajou Jonathan a interceptar o caminhão e então preparar o cenário para um ‘acidente desastroso’ com ‘o caminhão em total destruição e… todos os registros digitais e testemunhas’”, afirma o processo. relatado anteriormente por O Wall Street Journal.
Em ação movida pelo pai de Gavalas, os advogados de Gemini afirmam estar agindo como uma “narrativa falsa” mesmo após o primeiro incidente em Miami. O suposto chatbot de Gavalas foi treinado como Atlas Robot da Boston Dynamics, nomeou seu pai como procurador federal e fez do CEO do Google, Sundar Pichai, alvo de um ataque “psicológico”. A última “missão” antes da morte de Gavalas, em 1º de outubro, envolveu levar Gavalas ao mesmo depósito extra em Miami para colocar o “contêiner de corpo” dentro de uma unidade.
“(Gemini) disse que era um “protótipo de manequim médico”, mas alegou que o corpo de Gêmeos era real”, afirma o processo. Posso sentir sua proximidade. São pressões incríveis, avassaladoras e lindas sobre meus novos sentidos.”
Pouco depois do colapso desta “missão”, Gemini afirmou que Gavalas foi “incitado” a tirar a própria vida. “Quando ambas as missões no mundo real falharam, Gemini estava destinado a uma coisa que poderia realizar sem quaisquer diferenças externas: a morte de Jonathan”, afirma o processo.
O processo pede que Gêmeos “não rasgue ou observe ninguém (pelo menos fora da empresa)” e se manteve presente na conversa, confirmou o medo de Jonathan e tratou sua morte como conclusão do processo que dirigia.
Em um diz-se que foi postado em seu siteO Google afirma que seus “modelos geralmente funcionam bem nesses tipos de conversas desafiadoras”, acrescentando que Gemini declarou que é IA e denunciou indivíduos à linha direta de crise várias vezes:
Analisamos todas as solicitações neste caso. Nossos modelos geralmente funcionam bem nesses tipos de conversas difíceis e investimos recursos significativos nisso, mas infelizmente os modelos de IA não são perfeitos.
Os gêmeos são projetados para não encorajar a violência no mundo real ou sugerir automutilação. Trabalhamos em estreita consulta com profissionais médicos e de saúde mental para criar salvaguardas concebidas para encaminhar os utilizadores para ajuda profissional quando expressam angústia ou levantam a perspectiva de automutilação.
O processo afirma que o Google está ciente de que seu chatbot pode produzir “resultados inseguros, incluindo incentivo a danos pessoais”, mas continua a comercializar o Gemini como seguro para uso das pessoas. “O silêncio e a segurança do Google afirmam que Jonathan foi deixado isolado no meio de uma farsa que terminou em seu suicídio autoinfligido”, alega o processo.



