Cientistas descobriram paralelos impressionantes entre a forma como grandes modelos de linguagem (LLMs) e o cérebro humano processam a linguagem, apesar de suas arquiteturas e demandas energéticas vastamente diferentes.
Um estudo colaborativo do Google Research, Universidade de Princeton, NYU e Universidade Hebraica de Jerusalém identificou que a atividade neural no cérebro humano se alinha linearmente com as representações contextuais internas dos LLMs durante conversas naturais. Os pesquisadores constataram que ambos os sistemas compartilham três princípios computacionais fundamentais: eles predizem as próximas palavras antes de ouvi-las, comparam as previsões com o que é realmente dito para calcular o grau de surpresa e dependem de representações contextuais para dar significado às palavras.
"Demonstramos que as representações internas em nível de palavra, geradas por modelos de linguagem profunda, se alinham com padrões de atividade neural em regiões cerebrais associadas à compreensão e produção da fala", destacaram os pesquisadores em artigo publicado na Nature Neuroscience.
No entanto, há diferenças significativas. Enquanto LLMs processam centenas de milhares de palavras simultaneamente, o cérebro humano processa a linguagem de forma serial, palavra por palavra. Mais importante ainda, o cérebro realiza tarefas cognitivas complexas com notável eficiência energética, consumindo apenas cerca de 20 watts de potência, em contraste com as enormes demandas energéticas dos LLMs modernos.
"As redes cerebrais alcançam essa eficiência ao adicionar mais tipos neuronais diversos e conectividade seletiva entre diferentes tipos de neurônios em módulos distintos da rede, em vez de simplesmente adicionar mais neurônios, camadas e conexões", explica um estudo publicado na Nature Human Behaviour.
Em um desenvolvimento surpreendente, pesquisadores do BrainBench descobriram que LLMs agora superam especialistas humanos na previsão de resultados experimentais em neurociência. Seu modelo especializado, o BrainGPT, alcançou 81% de acurácia, contra 63% dos neurocientistas. Assim como os especialistas humanos, os LLMs apresentaram maior precisão quando expressaram maior confiança em suas previsões.
Essas descobertas sugerem um futuro em que a computação inspirada no cérebro pode melhorar dramaticamente a eficiência da IA. Pesquisadores estão explorando redes neurais pulsadas (SNNs), que imitam mais de perto os neurônios biológicos, potencialmente viabilizando aplicações que vão de drones de busca e resgate energeticamente eficientes até próteses neurais avançadas.
À medida que os LLMs continuam evoluindo para um processamento mais semelhante ao do cérebro, a fronteira entre inteligência artificial e biológica torna-se cada vez mais tênue, levantando questões profundas sobre a própria natureza da cognição.