Na tarde de sexta-feira, enquanto esta entrevista estava sendo preparada, uma mensagem interessante passou pela tela do meu computador: a administração Trump estava fechando laços com a Anthropic, uma empresa de IA de São Francisco fundada em 2021 por Dario Amodei e outros ex-pesquisadores da OpenAI que sobreviveram aos cuidados de saúde. O secretário da Defesa, Pete Hegseth, invocou a lei de segurança nacional – que foi concebida para combater a cadeia de ameaças das forças estrangeiras – para impedir a empresa de fazer negócios com o Pentágono depois de Amodei se ter recusado a permitir a utilização de tecnologia antropogénica sem intervenção humana.
O próximo passo foi de cair o queixo. Agora a Anthropic está prestes a perder um contrato no valor de até 200 milhões de dólares e impedida de trabalhar com outros empreiteiros de defesa depois que o presidente Trump enviou uma declaração da Segurança Social orientando todas as agências federais a “cessar imediatamente todo o uso da tecnologia Antrópica”. (Ela é antrópica porque disse o que quer desafiar o Pentágono em tribunalchamar os militares de uma designação de risco apropriadamente sólida e “nunca antes aplicada oficialmente à sociedade americana”.)
Max Tegmark vem alertando há quase uma década que o tipo de construção de sistemas de IA sempre impulsionará o poder mundial para governá-los. Físico sueco-americano e professor fundador do MIT Instituto Futuro da Vida em 2014 Em 2023, ele ajudou notavelmente a estabelecer um uma carta aberta – assinado por mais de 33.000 pessoas, incluindo Elon Musk – pedindo uma pausa no progresso da IA.
A sua visão da crise antrópica não poupa: a sociedade, tal como os seus rivais, semeou as sementes da sua situação difícil. O argumento da Tegmark não começa com o Pentágono, mas com uma decisão tomada há anos – uma escolha, partilhada por toda a indústria, de resistir ao compromisso organizacional. Anthropica, OpenAI, Google DeepMind e outros há muito prometem agir de forma responsável. No início desta semana, Anthropica também foi descartado Ele detém o penhor intermediário de sua salvação – Sua promessa de não lançar sistemas de IA cada vez mais poderosos até que a empresa estivesse confiante de que não poderiam ser prejudicados.
Agora, na ausência de regras, não há muito para proteger estes jogadores, diz Tegmark. Aqui está mais dessa entrevista, editada para maior extensão e clareza. Você pode ouvir a conversa completa na próxima semana no TechCrunch Baixar estritamente VC podcast
Ao ver essa notícia sobre a Anthropica, qual foi sua primeira reação?
A estrada para o inferno está honestamente pavimentada. É muito importante recordar uma década atrás, quando as pessoas estavam tão entusiasmadas com a forma como iríamos usar a inteligência artificial para curar o cancro, aumentar a prosperidade na América e tornar a América mais forte. E aqui estamos agora, onde o governo dos EUA está chateado com esta empresa que a IA está a ser usada para vigilância doméstica em massa dos americanos, e também que eles têm robôs assassinos que podem ser mortos de forma autónoma – sem qualquer intervenção humana.
Coisa tecnológica
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
A Anthropica colocou toda a sua identidade como a primeira empresa de IA num espaço seguro e ainda não trabalhou com agências de defesa e inteligência (pelo menos até 2024). Você acha que eles são completamente contraditórios?
É o oposto. Se eu puder dar um cachorrinho, aceito esse – sim, o antropólogo foi muito bom consigo mesmo com todos os cuidados de saúde. Mas se você olhar para as coisas e não para os direitos, o que você vê é humano. OpenAI, Google DeepMind e xAI falaram muito sobre como se preocupam com a segurança. Nenhum deles vem do apoio à regulamentação de segurança como acontece em outras indústrias. E agora todas essas quatro empresas quebraram suas promessas. Primeiro tivemos o Google – este grande slogan, ‘Não seja mau’. Então foi descartado. Em seguida, eles abandonam outro compromisso mais amplo de que basicamente prometeram não prejudicar a IA. Eles deixaram isso para que pudessem vender a IA para segurança e armas. A OpenAI retirou a palavra segurança de seu discurso. xAI incluiu toda a sua equipe de segurança. Mas agora a Anthropic, no início da semana, abandonou o seu mais importante compromisso de segurança – uma forte promessa de não libertar sistemas de IA até que tivessem a certeza de que não os prejudicariam.
Como é que as empresas que tornaram as proteções de segurança tão proeminentes acabam nesta posição?
Todas essas empresas, especialmente OpenAI e Google DeepMind, mas até certo ponto também antropomórficas, têm-se apoiado consistentemente contra o domínio da IA, dizendo: “Portanto, confie em nós, vamos governar a nós mesmos”. E fez lobby com sucesso. Portanto, agora temos menos regulamentações sobre sistemas de IA na América do que sobre sanduíches. Você sabe, se você quiser abrir uma lanchonete e o inspetor de saúde encontrar 15 ratos na cozinha, ele não deixará você vender nenhum sanduíche até que você o prepare. Mas se você disser: “Não se preocupe, não estou vendendo sanduíches, venho vendendo namoradas de IA há 11 anos e, no passado, estive ligado a um assassino e estou enviando algo chamado uma superinteligência que subverte o governo dos EUA, mas tenho um bom pressentimento sobre o meu” – o espectador diz: “Tudo bem”, “Vender”, “Continue”, “Continue”, “Ok”, diga: “Continue”, “Ok, “Vender:” Tenho um bom pressentimento sobre mim mesmo, mas me sinto bem.
Existe regulamentação de segurança alimentar e não há especialistas em IA.
E sinto que isso é realmente culpa de todas essas empresas. Porque se ele tivesse prometido todas essas coisas, ele teria retornado ao dia em que elas teriam sido tão seguras e gentis, e teria se unido, então ido ao governo e dito: ‘Tome nossas vontades e converta-as em nossa lei, que vincula até mesmo nossos concorrentes menos qualificados – isso aconteceu. Estamos num completo vácuo regulatório. Mas sabemos o que acontece quando a loucura corporativa é completa: você entende talidomidaas empresas de tabaco empurram cigarros para as crianças, você faz com que o amianto cause câncer de pulmão. Portanto, é meio ridículo ter suas próprias leis conflitantes dizendo o que é certo ou não fazer com a IA, agora volte e morda-as.
Atualmente não existe nenhuma lei contra a construção de IA para matar americanos, então o governo pode simplesmente solicitá-la de repente. Se as próprias empresas tivessem aparecido primeiro e dito: ‘Queremos esta lei’, não estariam neste muro. Ele realmente deu um tiro no pé.
O contra-argumento das empresas é sempre com a China – se as empresas americanas não o fizerem, Pequim o fará. Este sistema se sustenta?
A análise que ocorre. O argumento mais comum dos lobistas das empresas de IA – eles são agora mais bem financiados e superam em número os lobistas da indústria dos combustíveis fósseis, da indústria farmacêutica e do complexo militar-industrial combinados – é que sempre que alguém propõe qualquer regulamentação, eles dizem “Mas a China”. Então vamos dar uma olhada. A China está em processo de banir completamente a IA amigável. Não apenas limites de idade – o que você está tentando evitar todo antropomorfismo AI *. Por que? Não porque queiram agradar à América, mas porque sentem que esta é a face da juventude chinesa e torna a China fraca. Obviamente, também enfraquece os jovens americanos.
E quando dizem que estamos construindo uma corrida de superinteligência para podermos vencer a China – quando não sabemos como controlar a superinteligência, já que o fracasso é o resultado de a humanidade perder o controle da Terra para máquinas alienígenas – o que você espera? O Partido Comunista Chinês realmente ama o governo. Quem em sã consciência pensa que Xi Jinping está construindo alguma empresa chinesa de IA para derrubar o governo chinês? Sem chance. Obviamente, o governo americano também será muito ruim se a primeira empresa americana a construir uma superinteligência for derrubada. Esta é uma ameaça à segurança nacional.
É por isso que é importante estabelecer a superinteligência como um risco à segurança nacional, e não como um negócio. Você vê essa opinião sendo discutida em Washington?
Penso que se as pessoas na comunidade de segurança nacional ouvirem Dario Amodei descrever a sua visão, ele fará um discurso muito claro, onde diz que a teremos em breve. Às vezes no país dos gênios – eles podem pensar: espere, Darius usou apenas a palavra ‘país’? Talvez eu devesse colocar aquele país de talentos no data center na lista de ameaças que estou monitorando, porque isso soa como uma ameaça ao governo dos EUA. E penso que muito rapidamente, um número suficiente de pessoas na comunidade de segurança nacional dos Estados Unidos saberá que a superinteligência é uma ameaça, não uma ferramenta. Isto é exatamente como a Guerra Fria. Foi uma espécie de dominação – económica e militar – contra a União Soviética. Nós, americanos, conseguimos obtê-lo sem que ninguém entrasse na outra corrida, que era ver quem conseguia colocar mais ogivas nucleares na outra superpotência. As pessoas só entendiam a morte. Ninguém vence. A mesma razão se aplica aqui.
O que tudo isso significa para o desenvolvimento mais amplo da IA? Quão próximos você acha que estamos dos sistemas que você descreveu?
Há seis anos, quase todos os especialistas em IA previram que estaríamos a décadas de distância de uma IA que pudesse ter linguagem e conhecimento a nível humano – talvez 2040, talvez 2050. Eles estavam todos errados, porque já os temos agora. Vimos a IA progredir muito rapidamente do nível do ensino médio para o nível universitário, do nível de doutorado e do nível de professor universitário em algumas áreas. No ano passado, a IA conquistou a medalha de ouro nas Olimpíadas de Matemática, o que é tão difícil de conseguir quanto o desempenho humano. EU ele escreveu um artigo junto com Josué Bengio, E os Hendryckse outros importantes pesquisadores de IA há alguns meses deram uma definição precisa de AGI. De acordo com isso, o GPT-4 estava a 27% do caminho até lá. O GPT-5 percorreu 57% do caminho. Portanto, ainda não chegamos lá, mas de 27% a 57%, isso sugere rapidamente que não demorará muito.
Quando conversei ontem com meus alunos no MIT, disse-lhes que mesmo que demore quatro anos, quando se formarem, não conseguirão mais trabalho. Certamente não é cedo demais para nos prepararmos para isso.
Agora ele havia notado o antrópico. Estou curioso para ver o que acontece a seguir – os outros gigantes da IA ficarão do lado deles e dirão: não vamos fazer isso? Ou alguém como xAI levanta a mão e diz: A Antrópico não queria o contrato, certo? (nota do editor: Horas depois da conferência, a OpenAI anunciou seu acordo com o Pentágono).
Esta noite, Sam Altman apareceu e disse que apoia o Antropoceno e tem as mesmas linhas vermelhas. Eu o admiro por sua coragem em dizer isso. O Google, quando iniciamos esta conversa, não havia dito nada. Se eles ficarem quietos, acho que ficarão extremamente desconfortáveis, e muitos funcionários sentirão o mesmo. Ainda não ouvimos nada do xAI. Então será interessante ver. Basicamente, este é o momento em que todos devem mostrar a sua verdadeira face.
Existe uma versão disso em que os resultados são realmente bons?
Sim, e é por isso que estou incrivelmente otimista. Esta opção é tão óbvia. Se quisermos começar a tratar as empresas de IA como qualquer outra empresa – e muito menos o esquecimento corporativo – terão claramente de fazer algo como um ensaio clínico antes de lançarem algo poderoso, e demonstrarem a especialistas independentes que sabem como controlá-lo. Então teremos uma era de ouro com todas as coisas boas da IA, sem a angústia existencial. Não estamos nesta jornada agora. Mas ele poderia.



