A ascensão da inteligência artificial está aumentando a demanda por data centers como este em Londres
Jason Alden/Bloomberg via Getty Images
Se alguém construir um, todos morrem.
Eliezer Yudkowski e Nate Soares (Bodley Head, Reino Unido; Brown, Little, EUA)
Há tantas coisas com que nos preocupar em toda a nossa existência humana. Para muitos, questões financeiras, alterações climáticas e encontrar o amor e a felicidade estão no topo da lista, mas para alguns poucos dedicados, uma preocupação surge acima de tudo. Ou seja, a inteligência artificial acabará por destruir a humanidade.
Eliezer Yudkowsky Durante um quarto de século, investigadores do Machine Intelligence Research Institute (MIRI) da Califórnia têm feito proselitismo desta ideia, embora com um pequeno número de seguidores. Então, na era ChatGPT, suas ideias sobre a segurança da IA foram levadas ao mainstream, ecoadas tanto por CEOs de tecnologia quanto por políticos.
escreva em Nate Soarestambém no MIRI, Se alguém construir um, todos morrem. Esta é a tentativa de Yudkowsky de destilar o seu argumento numa mensagem simples e fácil de compreender que possa ser aceite pela sociedade como um todo. Este objectivo foi completamente bem sucedido, condensando ideias anteriormente confinadas a longos posts de blogs e artigos Wiki em livros altamente legíveis que foram elogiados por todos, desde celebridades como Stephen Fry e Mark Ruffalo até pesos pesados da política como Fiona Hill e Ben Bernanke. O problema é que, embora este argumento seja persuasivo, tem uma falha fatal.
Antes de explicar porquê, admito que não dediquei a minha vida a considerar esta questão tão profundamente como Yudkowsky o fez. Mas, da mesma forma, não estou descartando isso sem pensar. Há anos que acompanho o trabalho de Yudkowsky e ele tem uma maneira de pensar muito interessante. Eu li suas 660.000 palavras de fanfiction e realmente gostei. Harry Potter e o Método da RacionalidadeLá, ele apoia a filosofia da Comunidade Racionalista, que tem laços profundos com o movimento Segurança da IA e Altruísmo Eficaz.
Todos os três movimentos procuram derivar uma visão do mundo a partir dos primeiros princípios e aplicam lógica e evidências para determinar a melhor maneira de ser. Portanto, Yudkowsky e Soares, como excelentes racionalistas, Se alguém construir um, todos morrem. Também dos primeiros princípios. O capítulo inicial explica que não há nada nas leis da física que impeça o surgimento de uma inteligência superior à dos humanos. Sinto que não há absolutamente nenhum espaço para desacordo com isso. O próximo capítulo fornece uma explicação muito clara de como o Large Language Model (LLM) que alimenta o ChatGPT é criado. “LLMs e humanos são máquinas geradoras de texto, mas foram moldados por processos diferentes para realizar tarefas diferentes”, dizem eles, e mais uma vez, concordo plenamente.
O Capítulo 3 é onde as coisas começam a divergir. Yudkowsky e Soares explicam como a IA pode começar a comportar-se como se “desejasse” coisas, evitando ao mesmo tempo a questão filosófica muito real de se as máquinas podem realmente “querer” coisas. Eles citaram um teste do modelo o1 da OpenAI que exibiu um comportamento inesperado para realizar um desafio “impossível” de segurança cibernética, e apontaram para o fato de que o modelo “não desistiu” como um sinal de que o modelo estava se comportando como se quisesse ter sucesso. Pessoalmente, acho difícil interpretar qualquer motivo neste cenário. Se você colocar uma barragem em um rio, o rio não “desistirá” de tentar contornar a barragem, mas o rio não quer nada.
Os próximos capítulos abordam o que é conhecido como problema de coordenação da IA, argumentando que, uma vez que uma IA tenha um desejo, é impossível alinhar os seus objetivos com os da humanidade, e que uma IA superinteligente acabará por procurar gastar tanto material e energia quanto possível para promover as suas ambições. Esta ideia foi anteriormente popularizada como “maximização de clipes de papel” pelo filósofo Nick Bostrom, que acredita que uma IA encarregada de criar clipes de papel acabará por tentar transformar tudo num clipe de papel.
Claro – mas o que acontece se você desligá-lo? Para Yudkowsky e Soares isso é impossível. A posição deles é que a IA suficientemente avançada será indistinguível da magia (palavras minhas, não as deles) e que haverá todas as maneiras de evitar o seu desaparecimento. Eles imaginam tudo, desde uma IA intrigante pagando humanos em criptomoedas para cumprir suas ordens (não acho que seja impossível, mas novamente, estamos de volta à questão do “desejo”) até a descoberta de funções anteriormente desconhecidas do sistema nervoso humano que poderiam hackear diretamente o cérebro humano (talvez? Claro).
Naturalmente, quando surge um cenário como este, a IA parece assustadora. Eles também sugerem que os sinais de estagnação da IA, como os vistos no mais recente modelo GPT-5 da OpenAI, podem na verdade ser o resultado de uma IA secreta superinteligente sabotando concorrentes. Parece que nada pode nos levar à destruição.
Então, o que fazemos sobre isso? Yudkowsky e Soares têm muitas prescrições políticas, todas elas basicamente absurdas. A primeira é que as unidades de processamento gráfico (GPUs), os chips de computador que estão impulsionando a atual revolução da IA, precisarão ser severamente limitadas. Eles argumentam que deveria ser ilegal possuir mais de oito GPUs de ponta da era 2024 sem estar sujeito à supervisão do tipo nuclear por parte de organizações internacionais. Em comparação, a Meta possui pelo menos 350.000 desses chips. Assim que isto estiver em vigor, dizem eles, os países devem preparar-se para aplicar estas restrições bombardeando centros de dados não registados, mesmo sob o risco de uma guerra nuclear.Porque os data centers podem matar mais pessoas do que as armas nucleares.”(ênfase neles).
Por favor, respire fundo. Como chegamos aqui? Para mim, tudo isso é uma forma de aposta de Pascal. O matemático Blaise Pascal declarou que é racional viver a vida como se o Deus (cristão) existisse, com base em algumas somas simples. Se Deus existe, se você acreditar, receberá benefícios infinitos no céu, mas se não acreditar, sofrerá perdas infinitas no inferno. Se Deus não existe, você pode perder um pouco vivendo uma vida piedosa, mas ela é finita. A maneira de maximizar a felicidade é através da crença.
Da mesma forma, evitar a IA é quase justificado se você empilhar as cartas supondo que a IA será infinitamente ruim. Esta ideia leva os racionalistas a acreditar que qualquer acção no presente é justificada, mesmo que aqueles que vivem hoje sofram, desde que isso conduza à criação de biliões de humanos felizes no futuro.
Francamente, não entendo por que alguém passa os dias pensando dessa maneira. As pessoas que estão vivas agora são importantes. Temos desejos e preocupações. Milhares de milhões de nós estamos ameaçados pelas alterações climáticas, mas o assunto não é essencialmente mencionado. Se alguém construir um, todos morrem.. Vamos deixar a IA superinteligente para o mundo da ficção científica ao qual ela pertence e concentrar nossa energia na resolução de problemas de fatos científicos aqui hoje.



