Eles têm previsões meteorológicas oportunas.
O tempo do fim está próximo? Os cientistas estão se preparando para atualizar o Relógio do Juízo Final na terça-feira, alimentando especulações de que ele avançará em meio a temores de uma guerra nuclear, da ascensão da IA e de outras ameaças existenciais.
A hora oficial para 2026 será anunciada às 10h, horário padrão do leste, em uma conferência de imprensa ao vivo com a participação da laureada com o Prêmio Nobel da Paz, Maria Ressa, juntamente com especialistas em armas nucleares, mudanças climáticas, ameaças biológicas e tecnologias disruptivas.
Criado em 1947, quando os temores de uma guerra nuclear estavam em alta, o Relógio do Juízo Final serviu como uma metáfora para o quão perto a humanidade estava da autodestruição.
O Relógio Ragnarok foi criado pelo Boletim dos Cientistas Atômicos, uma organização sem fins lucrativos formada dois anos antes por Albert Einstein, J. Robert Oppenheimer e cientistas da Universidade de Chicago que ajudaram a desenvolver as primeiras armas atômicas no Projeto Manhattan.
Todos os anos, o dia do juízo final é atualizado com base em quão perto estamos de um desastre causado pelo homem – representado pela meia-noite; quanto mais perto o relógio chega das 12, mais perto estamos do fim.
A esperança é que esta ampulheta “mais sombria” motive a humanidade a resolver “a ameaça existencial mais premente do mundo causada pelos humanos”, figurativa e literalmente atrasando o relógio no apocalipse.
Infelizmente, para os observadores do Juízo Final, o tempo está se esgotando para a humanidade.
Quando foi criado, o Relógio do Juízo Final foi acertado para sete minutos para a meia-noite; estamos agora a 89 segundos das 12 horas – o mais próximo que chegaremos da autodestruição.
“Na minha opinião, o tempo pode avançar pelo menos um segundo”, disse Alicia Sanders-Zakre, chefe de política da Campanha Internacional para Abolir as Armas Nucleares. disse ao Daily Mail.
O prognóstico é ruim para 2026, segundo especialistas.
Sanders-Zakre acredita que os avisos de desastres iminentes são possíveis devido às 12.000 armas nucleares detidas globalmente e ao aumento das tensões entre as potências nucleares.
Pequenas escaramuças e a ameaça crescente de uma guerra em grande escala entre a Índia e o Paquistão durante o Verão parecem ter aumentado este risco.
“Embora o risco do uso nuclear tenha sido uma ameaça real durante 80 anos, aumentou no último ano, à medida que o investimento em armas nucleares disparava, ameaçando cada vez mais a retórica e as ações nucleares”, disse Sanders-Zakre.
Entretanto, o Dr. SJ Beard, investigador do Centro para o Estudo do Risco Existencial da Universidade de Cambridge, disse ao Daily Mail que o relógio deveria ser adiantado nove segundos, citando receios de um conflito nuclear imediato entre “as superpotências mundiais”.
“A ordem mundial multilateral está agora em colapso total e já estamos numa realidade multipolar, onde todos os países têm de escolher o lado autoritário e forte”, disse o cientista.
Beard disse que o risco de uma guerra nuclear era improvável devido ao bom relacionamento entre Donald Trump e Vladimir Putin, mas seria um problema a longo prazo porque os dois líderes “provavelmente não permaneceriam amigos para sempre”.
Os especialistas também sublinharam que o Novo Tratado START, que limita os arsenais nucleares estratégicos dos países, expirará em 5 de Fevereiro.
Hamza Chaudhry, líder de IA e segurança nacional do Future of Life Institute, afirmou que o Relógio do Juízo Final deveria ser adiantado de cinco a 10 segundos.
“Pela primeira vez desde o início da Guerra Fria, não haverá nenhum tratado bilateral de controlo de armas que limite os arsenais estratégicos EUA-Rússia”, disse ele, acrescentando que “isto representa uma ruptura fundamental na arquitectura de controlo de armas nucleares”.
A guerra nuclear não é o único desastre potencial no radar dos apocalípticos.
Beard também alertou sobre a crescente onipresença da IA, que ele considerou um “motor de risco existencial” equivalente às “armas nucleares”.
No seu novo livro “If Someone Builds It, Everyone Dies: Why Superhuman AI Could Kill Us All”, os cientistas da computação Eliezer Yudkowsky e Nate Soares alertam que a humanidade será exterminada por vírus sintéticos e outros meios se não pressionarmos o botão kill.
“Se qualquer empresa ou grupo, em qualquer lugar do planeta, construísse superinteligência artificial usando quaisquer técnicas remotamente semelhantes à tecnologia existente, com base na compreensão atual da IA, então todos, em todos os lugares da Terra, morreriam”, alerta o especialista em IA, que trabalha no Machine Intelligence Research Institute (MIR) de Berkeley, na introdução não tão sutil deste livro.



