Acontece que, embora possam “inventar” os modelos de IA mais sofisticados, podem, na verdade, estar sujeitos a um acalorado debate interno. Fascinante um novo estudo de coautoria de pesquisadores do Google alterou a maneira como tradicionalmente entendemos a inteligência artificial. Ele sugere que modelos de computação avançados – especificamente o DeepSeek-R1 e o QwQ-32B do Alibaba – não apenas processem os números em uma linha reta e lógica. Mas um grupo de pessoas parece estar se comportando de maneira estranha enquanto tentam resolver um quebra-cabeça juntos.
O artigo, publicado no arXiv com o sugestivo título Modelos de raciocínio geram sociedades pensantes, postula que esses modelos não apenas computam; eles simulam intrincadamente a interação “multiagente”. Imagine uma sala de reuniões cheia de especialistas discutindo ideias, desafiando as suposições uns dos outros e analisando um problema de diferentes ângulos antes de finalmente chegar a um acordo sobre a melhor resposta. Isso é essencialmente o que acontece dentro do código. Os investigadores descobriram que estes padrões apresentam “diversidade de perspetivas”, o que cria pontos de vista significativamente diferentes e trabalha para os reconciliar internamente, não muito diferente de um grupo de colegas que debate uma questão militar para encontrar o melhor caminho a seguir.
Durante anos, a suposição dominante no Vale do Silício foi que, para tornar a IA mais inteligente, o material seria simplesmente maior
Alimente o problema com mais dados e poder de computação bruto. Mas esta pesquisa inverte completamente o roteiro. Sugere estrutura para o processo de pensamento, bem como equilíbrio.
Esses modelos são eficazes porque organizam seus processos internos para “olhar” através dos turnos. É como ter um advogado do diabo embutido que força a IA a verificar seu trabalho, fazer perguntas esclarecedoras e explorar alternativas antes de rejeitar uma resposta.
Para usuários comuns, este sub é enorme
Todos nós já experimentamos uma IA que fornece respostas simples e confiantes, mas, em última análise, erradas. Um modelo que funciona como uma “sociedade” tem menos probabilidade de cometer esses erros escandalosos porque já experimentou a força da sua lógica. Significa que a próxima geração de meios de comunicação não é apenas mais rápida; são mais sugestivos, melhores no tratamento de questões ambíguas e mais “humanitários” na argumentação sobre como abordar problemas complexos, a mensagem. Também poderia ajudar na resolução de problemas – se uma IA considerar vários pontos de vista internamente, é menos provável que fique presa a uma única forma de pensar errada.

Em última análise, isto afasta-nos da ideia da IA como uma calculadora glorificada e aproxima-nos de um futuro onde os sistemas são organizados com diversidade interna. Se as descobertas do Google forem verdadeiras, o futuro da IA não se trata apenas de construir um cérebro maior – trata-se de construir uma equipe melhor e mais colaborativa dentro da máquina. O conceito de “inteligência coletiva” não se aplica mais apenas à biologia; ser o modelo para o próximo grande salto em tecnologia.



