Znanstvenici su otkrili zapanjujuće paralele između načina na koji veliki jezični modeli (LLM-ovi) i ljudski mozak obrađuju jezik, unatoč njihovim izrazito različitim arhitekturama i energetskim zahtjevima.
Suradničko istraživanje Google Researcha, Sveučilišta Princeton, NYU-a i Hebrejskog sveučilišta u Jeruzalemu pokazalo je da se neuronska aktivnost u ljudskom mozgu linearno podudara s internim kontekstualnim ugradnjama LLM-ova tijekom prirodnih razgovora. Istraživači su otkrili da oba sustava dijele tri temeljna računalna principa: predviđaju nadolazeće riječi prije nego ih čuju, uspoređuju predviđanja sa stvarnim unosom kako bi izračunali iznenađenje te se oslanjaju na kontekstualne ugradnje za smisleno predstavljanje riječi.
"Pokazujemo da se interne ugradnje na razini riječi, koje generiraju duboki jezični modeli, podudaraju s obrascima neuronske aktivnosti u utvrđenim regijama mozga povezanim s razumijevanjem i produkcijom govora", naveli su istraživači u svojim nalazima objavljenim u časopisu Nature Neuroscience.
Ipak, postoje značajne razlike. Dok LLM-ovi obrađuju stotine tisuća riječi istovremeno, ljudski mozak jezik obrađuje serijski, riječ po riječ. Još važnije, ljudski mozak izvodi složene kognitivne zadatke s izvanrednom energetskom učinkovitošću, trošeći samo oko 20 vata snage, za razliku od golemih energetskih potreba suvremenih LLM-ova.
"Mreže u mozgu postižu svoju učinkovitost dodavanjem raznolikijih tipova neurona i selektivnim povezivanjem među različitim vrstama neurona u posebnim modulima unutar mreže, umjesto da jednostavno dodaju više neurona, slojeva i veza", objašnjava studija objavljena u časopisu Nature Human Behaviour.
U iznenađujućem razvoju događaja, istraživači iz BrainBencha otkrili su da LLM-ovi sada nadmašuju ljudske stručnjake u predviđanju rezultata neuroznanstvenih eksperimenata. Njihov specijalizirani model, BrainGPT, postigao je točnost od 81% u usporedbi sa 63% kod neuroznanstvenika. Kao i ljudski stručnjaci, LLM-ovi su pokazali veću točnost kada su izražavali veću sigurnost u svoja predviđanja.
Ova otkrića sugeriraju budućnost u kojoj bi računarstvo inspirirano mozgom moglo dramatično poboljšati učinkovitost umjetne inteligencije. Istraživači istražuju spikajuće neuronske mreže (SNN-ove) koje još vjernije oponašaju biološke neurone, što bi moglo omogućiti primjene od energetski učinkovitih dronova za potragu i spašavanje do naprednih neuralnih proteza.
Kako se LLM-ovi nastavljaju razvijati prema obradi sličnijoj mozgu, granica između umjetne i biološke inteligencije postaje sve nejasnija, otvarajući duboka pitanja o samoj prirodi spoznaje.