Cientistas descobriram paralelos impressionantes entre a forma como os grandes modelos de linguagem (LLMs) e o cérebro humano processam a linguagem, apesar das suas arquiteturas e necessidades energéticas muito distintas.
Um estudo colaborativo da Google Research, Universidade de Princeton, NYU e Universidade Hebraica de Jerusalém revelou que a atividade neural no cérebro humano se alinha linearmente com as representações contextuais internas dos LLMs durante conversas naturais. Os investigadores descobriram que ambos os sistemas partilham três princípios computacionais fundamentais: prevêem as próximas palavras antes de as ouvirem, comparam as previsões com o input real para calcular o grau de surpresa e dependem de representações contextuais para atribuir significado às palavras.
"Demonstramos que as representações internas ao nível da palavra, geradas por modelos de linguagem profunda, alinham-se com os padrões de atividade neural em regiões cerebrais estabelecidas associadas à compreensão e produção da fala", referem os investigadores nas conclusões publicadas na Nature Neuroscience.
No entanto, existem diferenças significativas. Enquanto os LLMs processam centenas de milhares de palavras em simultâneo, o cérebro humano processa a linguagem de forma sequencial, palavra a palavra. Mais importante ainda, o cérebro humano realiza tarefas cognitivas complexas com uma eficiência energética notável, consumindo apenas cerca de 20 watts de potência, em contraste com as enormes necessidades energéticas dos LLMs modernos.
"As redes cerebrais atingem a sua eficiência ao adicionar maior diversidade de tipos neuronais e conectividade seletiva entre vários tipos de neurónios em módulos distintos da rede, em vez de simplesmente adicionar mais neurónios, camadas e ligações", explica um estudo publicado na Nature Human Behaviour.
Num desenvolvimento surpreendente, investigadores do BrainBench descobriram que os LLMs já ultrapassam especialistas humanos na previsão de resultados experimentais em neurociência. O seu modelo especializado, BrainGPT, atingiu uma precisão de 81%, comparando com 63% dos neurocientistas. Tal como os especialistas humanos, os LLMs apresentaram maior precisão quando expressaram maior confiança nas suas previsões.
Estas descobertas sugerem um futuro em que a computação inspirada no cérebro poderá melhorar drasticamente a eficiência da IA. Os investigadores estão a explorar redes neuronais pulsadas (SNNs) que imitam mais de perto os neurónios biológicos, potencialmente permitindo aplicações que vão desde drones de busca e salvamento energeticamente eficientes até próteses neurais avançadas.
À medida que os LLMs continuam a evoluir para um processamento mais semelhante ao do cérebro, a fronteira entre a inteligência artificial e a biológica torna-se cada vez mais ténue, levantando questões profundas sobre a própria natureza da cognição.