menu
close

LLM-y i ludzki mózg: Zaskakujące podobieństwa wychodzą na jaw

Najnowsze badania ujawniają niezwykłe podobieństwa między dużymi modelami językowymi (LLM) a przetwarzaniem języka przez ludzki mózg – oba systemy wykorzystują przewidywanie kolejnych słów i rozumienie kontekstu. Badania pokazują, że LLM-y potrafią już przewyższyć ludzkich ekspertów w przewidywaniu wyników eksperymentów neurologicznych, choć nadal są tysiące razy mniej energooszczędne niż mózg. Odkrycia te sugerują, że komputery inspirowane mózgiem mogą zrewolucjonizować rozwój sztucznej inteligencji.
LLM-y i ludzki mózg: Zaskakujące podobieństwa wychodzą na jaw

Naukowcy odkryli uderzające podobieństwa w sposobie, w jaki duże modele językowe (LLM) oraz ludzki mózg przetwarzają język, pomimo ich zupełnie odmiennych architektur i zapotrzebowania na energię.

Wspólne badania prowadzone przez Google Research, Uniwersytet Princeton, NYU oraz Uniwersytet Hebrajski w Jerozolimie wykazały, że aktywność neuronalna w ludzkim mózgu wykazuje liniową zgodność z wewnętrznymi osadzeniami kontekstowymi LLM-ów podczas naturalnych rozmów. Naukowcy odkryli, że oba systemy opierają się na trzech podstawowych zasadach obliczeniowych: przewidują nadchodzące słowa zanim je usłyszą, porównują przewidywania z rzeczywistym wejściem w celu obliczenia zaskoczenia oraz wykorzystują osadzenia kontekstowe do znaczącej reprezentacji słów.

„Wykazujemy, że wewnętrzne osadzenia słów generowane przez głębokie modele językowe są zgodne z wzorcami aktywności neuronalnej w ustalonych obszarach mózgu odpowiedzialnych za rozumienie i produkcję mowy” – zauważają autorzy badań opublikowanych w Nature Neuroscience.

Jednak istnieją istotne różnice. Podczas gdy LLM-y przetwarzają jednocześnie setki tysięcy słów, ludzki mózg analizuje język sekwencyjnie, słowo po słowie. Co ważniejsze, mózg człowieka wykonuje złożone zadania poznawcze z niezwykłą efektywnością energetyczną, zużywając jedynie około 20 watów mocy, podczas gdy współczesne LLM-y wymagają znacznie większych nakładów energetycznych.

„Sieci mózgowe osiągają swoją wydajność poprzez zwiększanie różnorodności typów neuronów i selektywne połączenia między różnymi typami neuronów w odrębnych modułach sieci, zamiast po prostu dodawać więcej neuronów, warstw i połączeń” – wyjaśniają autorzy badania opublikowanego w Nature Human Behaviour.

W zaskakującym zwrocie wydarzeń, naukowcy z BrainBench wykazali, że LLM-y przewyższają już ludzkich ekspertów w przewidywaniu wyników eksperymentów neurologicznych. Ich wyspecjalizowany model, BrainGPT, osiągnął 81% trafności, podczas gdy neurolodzy uzyskali 63%. Podobnie jak ludzcy eksperci, LLM-y wykazywały większą dokładność, gdy były bardziej pewne swoich przewidywań.

Odkrycia te sugerują przyszłość, w której komputery inspirowane mózgiem mogą radykalnie zwiększyć efektywność sztucznej inteligencji. Naukowcy badają sieci neuronowe z kolcami (SNN), które jeszcze lepiej naśladują biologiczne neurony, co może umożliwić zastosowania od energooszczędnych dronów ratowniczych po zaawansowane protezy neurologiczne.

W miarę jak LLM-y coraz bardziej upodabniają się do mózgu w sposobie przetwarzania informacji, granica między inteligencją sztuczną a biologiczną staje się coraz bardziej rozmyta, rodząc fundamentalne pytania o naturę samego poznania.

Source: Lesswrong.com

Latest News