Учени откриха поразителни паралели между начина, по който големите езикови модели (LLMs) и човешкият мозък обработват езика, въпреки огромните различия в архитектурата и енергийните им нужди.
Съвместно изследване на Google Research, Принстънския университет, Нюйоркския университет и Еврейския университет в Йерусалим установява, че невронната активност в човешкия мозък се подрежда линейно с вътрешните контекстуални вграждания на LLM по време на естествени разговори. Изследователите откриват, че и двете системи споделят три основни изчислителни принципа: предвиждат следващите думи, преди да ги чуят; сравняват предвижданията с реалния вход, за да изчислят изненадата; и разчитат на контекстуални вграждания, за да представят думите смислено.
„Демонстрираме, че вътрешните вграждания на ниво дума, генерирани от дълбоки езикови модели, се подреждат с невронните модели на активност в установени мозъчни региони, свързани с разбиране и продуциране на реч“, отбелязват изследователите в публикацията си в Nature Neuroscience.
Съществуват обаче и съществени разлики. Докато LLM обработват стотици хиляди думи едновременно, човешкият мозък обработва езика последователно, дума по дума. Още по-важно е, че мозъкът изпълнява сложни когнитивни задачи с изключителна енергийна ефективност, използвайки само около 20 вата мощност, в сравнение с огромните енергийни нужди на съвременните LLM.
„Мозъчните мрежи постигат ефективността си чрез добавяне на по-голямо разнообразие от невронни типове и селективна свързаност между различни типове неврони в отделни модули на мрежата, вместо просто да добавят повече неврони, слоеве и връзки“, обяснява изследване, публикувано в Nature Human Behaviour.
В изненадващо развитие изследователи от BrainBench установяват, че LLM вече надминават човешки експерти в предвиждането на резултати от невронаучни експерименти. Техният специализиран модел BrainGPT постига 81% точност спрямо 63% при невроучените. Подобно на човешките експерти, LLM показват по-висока точност, когато изразяват по-голяма увереност в предвижданията си.
Тези открития подсказват бъдеще, в което компютърните системи, вдъхновени от мозъка, могат значително да подобрят ефективността на изкуствения интелект. Изследователите проучват шипкови невронни мрежи (SNN), които по-точно имитират биологичните неврони, с потенциал за приложения – от енергийно ефективни дронове за търсене и спасяване до напреднали невронни протези.
С развитието на LLM към по-мозъкоподобна обработка границата между изкуствения и биологичния интелект става все по-неясна, повдигайки дълбоки въпроси за самата същност на познанието.