A viúva de um homem morto no tiroteio em massa do ano passado na Florida State University está processando a OpenAI, criadora do ChatGPT, alegando que o chatbot de inteligência artificial da empresa forneceu conselhos.
O processo surge depois que autoridades estaduais revelaram que o ChatGPT forneceu ao atirador informações sobre o horário e o local no campus que provavelmente atingiriam as vítimas, bem como o tipo de arma e munição usada. As autoridades dizem que ele também foi informado de que o ataque poderia receber mais atenção da mídia se houvesse crianças envolvidas.
“A OpenAI sabia que isso iria acontecer. Já aconteceu antes e é apenas uma questão de tempo até que aconteça novamente”, disse Vandana Joshi, cujo marido Tiru Chiba foi uma das duas pessoas mortas, em comunicado na segunda-feira. Seis pessoas também ficaram feridas.
A ação, movida no tribunal federal no domingo, diz que a OpenAI deveria ter construído o ChatGPT com medidas de segurança para que alguém soubesse que a polícia poderia precisar investigar “para evitar um plano específico que prejudicasse o público”.
A OpenAI negou qualquer irregularidade no que chamou de “crime hediondo”.
“Neste caso, o ChatGPT forneceu respostas factuais a perguntas com informações amplamente disponíveis em fontes públicas na Internet e não encorajou ou promoveu atividades ilegais ou prejudiciais”, disse o porta-voz da empresa, Drew Posatieri, num e-mail à Associated Press.



