Naukowcy odkryli uderzające podobieństwa w sposobie, w jaki duże modele językowe (LLM) oraz ludzki mózg przetwarzają język, pomimo ich zupełnie odmiennych architektur i zapotrzebowania na energię.
Wspólne badania prowadzone przez Google Research, Uniwersytet Princeton, NYU oraz Uniwersytet Hebrajski w Jerozolimie wykazały, że aktywność neuronalna w ludzkim mózgu wykazuje liniową zgodność z wewnętrznymi osadzeniami kontekstowymi LLM-ów podczas naturalnych rozmów. Naukowcy odkryli, że oba systemy opierają się na trzech podstawowych zasadach obliczeniowych: przewidują nadchodzące słowa zanim je usłyszą, porównują przewidywania z rzeczywistym wejściem w celu obliczenia zaskoczenia oraz wykorzystują osadzenia kontekstowe do znaczącej reprezentacji słów.
„Wykazujemy, że wewnętrzne osadzenia słów generowane przez głębokie modele językowe są zgodne z wzorcami aktywności neuronalnej w ustalonych obszarach mózgu odpowiedzialnych za rozumienie i produkcję mowy” – zauważają autorzy badań opublikowanych w Nature Neuroscience.
Jednak istnieją istotne różnice. Podczas gdy LLM-y przetwarzają jednocześnie setki tysięcy słów, ludzki mózg analizuje język sekwencyjnie, słowo po słowie. Co ważniejsze, mózg człowieka wykonuje złożone zadania poznawcze z niezwykłą efektywnością energetyczną, zużywając jedynie około 20 watów mocy, podczas gdy współczesne LLM-y wymagają znacznie większych nakładów energetycznych.
„Sieci mózgowe osiągają swoją wydajność poprzez zwiększanie różnorodności typów neuronów i selektywne połączenia między różnymi typami neuronów w odrębnych modułach sieci, zamiast po prostu dodawać więcej neuronów, warstw i połączeń” – wyjaśniają autorzy badania opublikowanego w Nature Human Behaviour.
W zaskakującym zwrocie wydarzeń, naukowcy z BrainBench wykazali, że LLM-y przewyższają już ludzkich ekspertów w przewidywaniu wyników eksperymentów neurologicznych. Ich wyspecjalizowany model, BrainGPT, osiągnął 81% trafności, podczas gdy neurolodzy uzyskali 63%. Podobnie jak ludzcy eksperci, LLM-y wykazywały większą dokładność, gdy były bardziej pewne swoich przewidywań.
Odkrycia te sugerują przyszłość, w której komputery inspirowane mózgiem mogą radykalnie zwiększyć efektywność sztucznej inteligencji. Naukowcy badają sieci neuronowe z kolcami (SNN), które jeszcze lepiej naśladują biologiczne neurony, co może umożliwić zastosowania od energooszczędnych dronów ratowniczych po zaawansowane protezy neurologiczne.
W miarę jak LLM-y coraz bardziej upodabniają się do mózgu w sposobie przetwarzania informacji, granica między inteligencją sztuczną a biologiczną staje się coraz bardziej rozmyta, rodząc fundamentalne pytania o naturę samego poznania.