Hquase não passa um mês sem que um especialista em IA avise que a tecnologia representa uma ameaça real para a humanidade. Muitos desses avisos podem ser pouco claros ou ingênuos. Outros podem ser egoístas. É necessária uma supervisão calma e equilibrada. No entanto, existem alguns avisos que vale a pena levar a sério.
Na semana passada, vários pesquisadores importantes de segurança de IA renunciaram, aviso que as empresas com fins lucrativos ponham a segurança de lado e promovam produtos de risco. No curto prazo, isto indica uma rápida “melhoria” na consecução dos objetivos de curto prazo renda. Sem regulamentação, o interesse público será substituído pelo lucro. É claro que o papel crescente da IA no governo e na vida quotidiana – bem como o desejo dos proprietários multimilionários de obter lucro – exige responsabilização.
A escolha de usar agentes – chatbots – como interface principal do consumidor para IA é principalmente comercial. O surgimento da conversação e da reciprocidade impulsiona interações mais profundas do usuário do que a barra de pesquisa do Google. A pesquisadora da OpenAI Zoë Hitzig tem isso esteja avisado que incorporar a publicidade na manipulação dinâmica de riscos. OpenAI afirma que os anúncios não influenciam as respostas do ChatGPT. No entanto, tal como acontece com as redes sociais, pode tornar-se menos visível e mais direcionado psicologicamente – aproveitando amplos intercâmbios pessoais.
Deve-se notar que Simo resgateque construiu o negócio de publicidade do Facebook, fundiu-se com a OpenAI no ano passado. E a OpenAI recentemente demitiu seus executivos Ryan Beiermeister por “discriminação sexual”. Alguns relatórios dizem que ele é fortemente contra o lançamento de conteúdo adulto. Tomados em conjunto, estes movimentos sugerem que as pressões comerciais estão a determinar a direcção da empresa – e talvez a direcção da indústria em geral. A forma como a ferramenta Grok AI de Elon Musk foi deixada ativa o tempo suficiente para dar origem a abusos, e depois restringiu o acesso pago antes de finalmente ser descontinuada na sequência de investigações no Reino Unido e na UE, levanta questões sobre a monetização dos danos.
É mais difícil avaliar sistemas mais especializados construídos para fins sociais, como educação e governo. Mas tal como a busca frenética do lucro tende a introduzir preconceitos irresistíveis em todos os sistemas humanos que temos, o mesmo se aplica à IA.
Isso não é um problema em apenas uma empresa. Uma carta de demissão mais vaga do pesquisador de segurança da Antrópica Mrinank Sharma alerta que “o mundo está em perigo”e que ele “viu repetidas vezes como é difícil deixar os valores ditarem nossas ações”. OpenAI costumava ser totalmente sem fins lucrativos; após se comprometer com a comercialização a partir de 2019, a Anthropic surgiu com a esperança de ser uma alternativa mais segura e discreta. A saída de Sharma mostra que mesmo as empresas fundadas na contenção estão a lutar para negar a si mesmas as mesmas vantagens.
As razões para este realinhamento são claras. As empresas estão a gastar capital de investimento a níveis históricos, as suas receitas não estão a crescer suficientemente depressa e, embora os resultados técnicos sejam impressionantes, ainda não é claro o que a IA pode “fazer” para gerar lucros. Começando pelo tabaco até drogasvimos como os incentivos ao lucro podem distorcer o julgamento. A crise financeira de 2008 mostrou o que acontece quando sistemas críticos são impulsionados por necessidades de curto prazo e por uma supervisão fraca.
São necessárias regulamentações estaduais fortes para superar esse problema. O recente Relatório Internacional de Segurança da IA 2026 fornece uma avaliação sóbria dos riscos reais – desde erros de automação até à desinformação – e um plano regulamentar claro. Mas embora seja apoiado por 60 países, os governos dos EUA e do Reino Unido recusou-se a assiná-lo. Este é um sinal preocupante de que estão a optar por proteger a indústria em vez de a restringir.



