Início NOTÍCIAS OpenAI afirma que o novo modelo GPT-5.2 é ‘mais seguro’ para a...

OpenAI afirma que o novo modelo GPT-5.2 é ‘mais seguro’ para a saúde mental

78
0

Hoje, o OpenAI GPT-5.2 foi lançado, esperando seu desempenho superior na saúde mental.

“Com este lançamento, trabalharemos para fortalecer nossos modelos de resposta em entrevistas sensíveis, com melhorias significativas na forma como eles respondem a avisos que indicam sinais de suicídio ou automutilação, doença mental ou sofrimento emocional no modelo.” Postagem do blog da OpenAI estados

A OpenAI foi recentemente alvo de críticas e ações judiciais que acusam o ChatGPT de contribuir para psicose, paranóia e delírios em alguns usuários. Alguns dos usuários tomaram conhecimento da morte após longas conversas com o chatbot de IA, que apresentava um problema bem documentado de bajulação.

Em resposta ao processo de homicídio culposo pela morte de Adam Raine, de 16 anos, a OpenAI negou que o LLM fosse o responsável, o ChatGPT orientou o adolescente a procurar a ajuda de um advogado destrutivo e afirmou que o adolescente “abusou” da plataforma. Ao mesmo tempo, OpenAI Eles deram uma resposta melhor do que ChatGPT com usuários alertando sobre sinais de automutilação e sofrimento de problemas de saúde mental. À medida que os utilizadores desenvolvem reações emocionais aos chatbots de IA como o ChatGPT, as empresas de IA enfrentam um escrutínio cada vez maior como medida de salvaguarda para proteger os utilizadores.

Agora, a OpenAI afirma que os modelos mais recentes do ChatGPT oferecem “menos inapropriados em situações delicadas”.

Velocidade da luz mashável

Em uma postagem de blog anunciando o GPT-5.2, a OpenAI afirma que o GPT-5.2 tem pontuações mais altas em testes de saúde mental, autoconfiança e automutilação em comparação com os modelos GPT-5.1. Anteriormente, a OpenAI disse que era “completamente seguro” por . usando uma nova abordagem de treinamento de segurança equilibrar o que é seguro. Mais informações sobre os novos modelos de desempenho podem ser encontradas no 5.2 placa de sistema.


Crédito: Captura de tela: OpenAI

No entanto, a empresa também observou que o GPT-5.2 recusará menos solicitações de conteúdo adulto, especialmente conteúdo sexual. Mas isso aparentemente não se aplica a usuários que a OpenAI sabe que são menores de idade, já que a empresa afirma que sua proteção de idade “parece funcionar bem”. A OpenAI usa proteções adicionais para menores, incluindo acesso para reduzir conteúdo que usa violência, sangue coagulado, desafios virais, atividade sexual, natureza romântica ou violenta e “padrões de beleza extremos”.

Um modelo de previsão de idade também está em desenvolvimento, o que permitirá ao ChatGPT estimar a idade de seus usuários para ajudar a fornecer conteúdo mais apropriado aos usuários mais jovens.

No início deste outono, a OpenAI introduziu controles parentais no ChatGPT, incluindo monitoramento e restrição de certos tipos de uso.

A OpenAI não é a única empresa de IA acusada de diagnosticar problemas de saúde mental. No ano passado, um Mãe obteve Character.AI após a morte de seu filho por morte, e outro processo afirma que as crianças ficaram gravemente feridas nos “personagens” do tribunal. Character.AI foi declarado seguro para adolescentes por especialistas em segurança online. Da mesma forma, os chatbots de IA de várias plataformas, incluindo OpenAI, foram declarados seguros para a saúde mental dos adolescentes, de acordo com especialistas em segurança infantil e saúde mental.

Se você estiver se sentindo deprimido ou passando por uma crise mental, converse com alguém. Você pode ligar ou enviar uma mensagem de texto para Suicide & Crisis Lifeline em 988 ou conversar em 988lifeline.org. Você pode entrar em contato com a Lifeline ligando para 877-565-8860 ou para o Trevor Project em 866-488-7386. Envie “START” para Text Crisis Line 741-741. Entre em contato com a Linha de Ajuda da NAMI pelo telefone 1-800-950-NAMI, de segunda a sexta, das 10h00 às 22h00 horário do leste dos EUA, por e-mail (e-mail seguro). Se você não gosta do telefone, considere usar o 988 Suicídio e Crise Lifeline Chat. Aqui está um lista de recursos internacionais.


Divulgação: Ziff Davis, empresa controladora da Mashable, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela infringe a capacidade de Ziff Davis de treinar e operar sistemas de IA.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui