Natuklasan ng mga siyentipiko ang kapansin-pansing mga pagkakatulad sa pagitan ng paraan ng pagproseso ng wika ng malalaking language model (LLM) at ng utak ng tao, sa kabila ng malaki nilang pagkakaiba sa arkitektura at pangangailangan sa enerhiya.
Sa isang kolaboratibong pag-aaral ng Google Research, Princeton University, NYU, at Hebrew University of Jerusalem, nakita na ang neural activity sa utak ng tao ay linear na tumutugma sa internal contextual embeddings ng LLM habang nagaganap ang natural na pag-uusap. Natuklasan ng mga mananaliksik na parehong sumusunod ang dalawang sistema sa tatlong pangunahing prinsipyo ng komputasyon: pinipredikta nila ang susunod na salita bago pa ito marinig, ikinukumpara ang prediksyon sa aktwal na input upang masukat ang antas ng pagkabigla, at umaasa sa contextual embeddings upang magbigay ng makahulugang representasyon ng mga salita.
"Ipinapakita namin na ang word-level internal embeddings na nililikha ng malalalim na language model ay tumutugma sa mga pattern ng neural activity sa mga kilalang bahagi ng utak na may kinalaman sa pag-unawa at paggawa ng wika," ayon sa mga mananaliksik sa kanilang ulat na inilathala sa Nature Neuroscience.
Gayunpaman, may mahahalagang pagkakaiba. Habang kayang magproseso ng LLM ng daan-daang libong salita nang sabay-sabay, ang utak ng tao ay nagpoproseso ng wika nang sunud-sunod, salita kada salita. Mas mahalaga, ang utak ng tao ay gumaganap ng komplikadong mga gawaing kognitibo na may pambihirang episyensya sa enerhiya, na gumagamit lamang ng humigit-kumulang 20 watts ng kuryente, kumpara sa napakalaking konsumo ng enerhiya ng mga modernong LLM.
"Nakakamit ng mga brain network ang kanilang episyensya sa pamamagitan ng pagdaragdag ng mas maraming uri ng neuron at piling konektibidad sa pagitan ng iba't ibang uri ng neuron sa mga natatanging bahagi ng network, sa halip na basta-basta magdagdag ng mas maraming neuron, layer, at koneksyon," paliwanag ng isang pag-aaral na inilathala sa Nature Human Behaviour.
Sa isang nakakagulat na pag-unlad, natuklasan ng mga mananaliksik sa BrainBench na nalalampasan na ng LLM ang mga eksperto sa agham ng utak sa pagpredikta ng mga resulta ng eksperimento sa neuroscience. Ang kanilang espesyal na modelong BrainGPT ay nakakuha ng 81% na accuracy kumpara sa 63% ng mga neuroscientist. Tulad ng mga eksperto, mas mataas ang accuracy ng LLM kapag mas mataas ang kanilang kumpiyansa sa prediksyon.
Ipinapahiwatig ng mga natuklasan na ito ang hinaharap kung saan maaaring lubos na mapabuti ng brain-inspired computing ang episyensya ng AI. Sinusuri ng mga mananaliksik ang spiking neural networks (SNNs) na mas malapit na ginagaya ang mga biological neuron, na posibleng magbukas ng mga aplikasyon mula sa energy-efficient na mga drone para sa search and rescue hanggang sa mga advanced neural prosthetics.
Habang patuloy na umuunlad ang LLM tungo sa mas brain-like na pagproseso, lalong nabubura ang hangganan sa pagitan ng artipisyal at biological na intelihensiya, na nagbubukas ng malalim na mga tanong tungkol sa likas na katangian ng kognisyon mismo.