Uma nova pesquisa da Universidade Johns Hopkins mostra que os sistemas de inteligência artificial construídos com base na biologia podem começar a se assemelhar ao cérebro humano antes de serem treinados com quaisquer dados. A pesquisa mostra que a forma como a IA é estruturada pode ser tão importante quanto a quantidade de dados que ela processa.
Resultados publicados em Inteligência mecânica da naturezadesafiar a estratégia dominante no desenvolvimento da inteligência artificial. Em vez de depender de meses de treinamento, enormes conjuntos de dados e enorme poder de computação, o estudo destaca o valor de começar com uma base arquitetônica semelhante à do cérebro.
Repensando a abordagem de Big Data para inteligência artificial
“O caminho que o campo da inteligência artificial está tomando agora é lançar um monte de dados em modelos e criar recursos computacionais do tamanho de pequenas cidades. Isso exige gastar centenas de bilhões de dólares. Enquanto isso, as pessoas aprendem a ver usando muito poucos dados”, disse o principal autor do estudo, Mick Bonner, professor associado de ciência cognitiva na Universidade Johns Hopkins. “A evolução pode ter convergido para este projeto por uma boa razão. Nosso trabalho mostra que projetos arquitetônicos que são mais parecidos com o cérebro colocam os sistemas de inteligência artificial em um ponto de partida muito vantajoso.”
Bonner e os seus colegas procuraram testar se a arquitectura por si só poderia dar aos sistemas de IA um ponto de partida mais humano, sem depender da aprendizagem em grande escala.
Comparação de arquiteturas populares de inteligência artificial
A equipe de pesquisa se concentrou em três tipos principais de projetos de redes neurais comumente usados em sistemas modernos de inteligência artificial: transformadores, redes totalmente conectadas e redes neurais convolucionais.
Eles ajustaram repetidamente esses projetos para criar dezenas de redes neurais artificiais diferentes. Nenhum dos modelos foi preparado com antecedência. Os pesquisadores então mostraram aos sistemas não treinados imagens de objetos, pessoas e animais e compararam sua atividade intrínseca com as respostas cerebrais de humanos e primatas que visualizam as mesmas imagens.
Por que as redes convolucionais se destacaram
O aumento do número de neurônios artificiais em transformadores e redes totalmente conectadas não trouxe mudanças significativas. No entanto, ajustes semelhantes nas redes neurais convolucionais resultaram em padrões de atividade mais consistentes com os observados no cérebro humano.
Segundo os investigadores, estes modelos convolucionais não treinados têm um desempenho equivalente aos sistemas tradicionais de inteligência artificial, que normalmente requerem exposição a milhões ou mesmo milhares de milhões de imagens. Os resultados sugerem que a arquitetura desempenha um papel maior na formação do comportamento semelhante ao do cérebro do que se pensava anteriormente.
Um caminho mais rápido para uma inteligência artificial mais inteligente
“Se aprender com dados massivos é realmente o fator decisivo, então não deveria haver maneira de chegar a sistemas de inteligência artificial semelhantes ao cérebro apenas através de modificações arquitetônicas”, disse Bonner. “Isto significa que, começando com o modelo certo e talvez incorporando outras ideias da biologia, podemos acelerar significativamente a aprendizagem em sistemas de inteligência artificial”.
A equipa está agora a explorar técnicas de aprendizagem simples e de inspiração biológica que poderão levar a uma nova geração de estruturas de aprendizagem profunda, tornando potencialmente os sistemas de inteligência artificial mais rápidos, mais eficientes e menos dependentes de conjuntos massivos de dados.



