OpenAI está contratando um Chefe de preparação. Ou, em outras palavras, alguém cuja tarefa principal é pensar em todas as maneiras pelas quais a IA pode dar terrivelmente errado. Em um após 10 dias *Sam Altman anunciou uma posição que reconhece a rápida melhoria dos modelos de IA como “alguns desafios reais”. A mensagem continua chamando especificamente o impacto do poder da mente na saúde humana e os riscos de segurança cibernética das armas alimentadas por IA.
O Lista de empregos Ele diz que a pessoa é responsável pelas peças;
“Rastreie e prepare-se para capacidades limitadas que criam novas ameaças de danos graves. Você será o líder diretamente responsável pela avaliação, modelagem de ameaças e coordenação de capacidades de mitigação que formam um pipeline de segurança operacional coerente, rígido e escalonável.”
Altman diz ainda que, no futuro, esta pessoa será responsável por implementar um “quadro de preparação”, obter modelos de IA para libertar “capacidades biológicas”, e também colocar guardas para sistemas de auto-aperfeiçoamento. Ele também afirma que seria um “trabalho estressante”, o que parece um eufemismo.



