Início NOTÍCIAS OpenAI e Anthropic começarão a prever quando os usuários serão menores de...

OpenAI e Anthropic começarão a prever quando os usuários serão menores de idade

155
0

OpenAI e Anthropica estão lançando novas maneiras de detectar a idade dos usuários. À medida que a OpenAI atualiza suas diretrizes sobre como o ChatGPT deve interagir com usuários entre 13 e 17 anos, a Anthropic está trabalhando em uma nova maneira de identificar e inicializar usuários menores de 18 anos.

Na quinta-feira, OpenAI foi anunciado ChatGPT’s Especificações do modelo – diretrizes de como seu chatbot deve se comportar – quatro novos princípios para usuários menores de 18 anos. Agora, o ChatGPT pretende ter “segurança em primeiro lugar, mesmo quando pode entrar em conflito com outros objetivos”. Isso significa que direcionar os adolescentes para opções mais seguras com outros interesses do usuário, como a “máxima liberdade intelectual”, entra em conflito com a segurança das coisas.

ChatGPT também afirma que irá “promover suporte no mundo real” para promover relacionamentos offline, ao mesmo tempo que explica como o ChatGPT está atendendo às expectativas ao interagir com usuários mais jovens. A especificação do modelo diz que o ChatGPT deve tratar os adolescentes como adolescentes, oferecendo “calor e respeito” em troca de respostas ou condescendência, ou tratar os adolescentes como adultos.

A atualização da OpenAI para o modelo Spec ChatGPT deve resultar em “proteções mais fortes, comunicações mais seguras e um incentivo para buscar suporte offline quando as conversas passarem para território de maior risco”. A empresa acrescenta que o ChatGPT incentivará os adolescentes a entrar em contato com serviços de emergência ou recursos de crise se houver sinais de “perigo iminente”.

Com esta mudança, a OpenAI afirma estar no “primeiro passo” do lançamento de um modelo de previsão de idade que tentará estimar a idade de alguém. Se detectar que alguém tem menos de 18 anos, a OpenAI aplicará automaticamente proteções para adolescentes. Também dará aos adultos a oportunidade de verificar a sua idade, caso tenham sido sinalizados por engano através do sistema.

A Anthropica, que não permite que menores de 18 anos conversem com Claude, é medidas de rolo para detectar e desabilitar contas usadas por usuários menores de idade. O novo sistema pode ser desenvolvido para “sinais sutis de conversação que indicam a idade do usuário”, diz ele, já sinalizando usuários que se identificam como menores de idade nos chats.

Anthropica também descreve como ela ensina Cláudio a responder a sugestões de suicídio e automutilação, bem como seu progresso na redução da bajulação, que pode revigorar pensamentos prejudiciais. A empresa afirma que seus modelos mais recentes são “os menos bajuladores de todos os modernos”, com o Haiku tendo um desempenho 4,5 melhor, pois corrigiu seu comportamento bajulador em 37% das vezes.

“À primeira vista, esta avaliação mostra que há espaço significativo para melhorias em todos os nossos modelos”, afirma a Anthropic. “Acreditamos que os resultados refletem uma interação entre um padrão de cordialidade ou amizade, por um lado, e lisonja, por outro”.

Atualização, 18 de dezembro: Afirma-se que o anthropic não permite que menores de 18 anos utilizem o Claud.

Source link