menu
close

LLM:er och den mänskliga hjärnan: Förvånande paralleller uppdagas

Ny forskning avslöjar anmärkningsvärda likheter mellan stora språkmodeller (LLM:er) och hur den mänskliga hjärnan bearbetar språk. Båda systemen använder sig av nästa-ord-förutsägelse och kontextuell förståelse. Studier visar att LLM:er nu kan överträffa mänskliga experter i att förutsäga resultat inom neurovetenskap, även om de fortfarande är tusentals gånger mindre energieffektiva än hjärnan. Dessa upptäckter antyder att hjärninspirerad databehandling kan revolutionera AI-utvecklingen i framtiden.
LLM:er och den mänskliga hjärnan: Förvånande paralleller uppdagas

Forskare har upptäckt slående paralleller mellan hur stora språkmodeller (LLM:er) och den mänskliga hjärnan bearbetar språk, trots deras vitt skilda arkitekturer och energibehov.

En samarbetsstudie mellan Google Research, Princeton University, NYU och Hebreiska universitetet i Jerusalem fann att neural aktivitet i den mänskliga hjärnan linjärt överensstämmer med de interna kontextuella inbäddningarna hos LLM:er under naturliga samtal. Forskarna upptäckte att båda systemen delar tre grundläggande beräkningsprinciper: de förutspår kommande ord innan de hörs, jämför förutsägelserna med faktisk input för att beräkna överraskning, och förlitar sig på kontextuella inbäddningar för att ge ord meningsfull representation.

"Vi visar att de ordnivåinbäddningar som genereras av djupa språkmodeller överensstämmer med de neurala aktivitetsmönstren i etablerade hjärnregioner som är kopplade till talförståelse och produktion," noterade forskarna i sina resultat publicerade i Nature Neuroscience.

Det finns dock betydande skillnader. Medan LLM:er kan bearbeta hundratusentals ord samtidigt, behandlar den mänskliga hjärnan språk sekventiellt, ord för ord. Än viktigare är att hjärnan utför komplexa kognitiva uppgifter med anmärkningsvärd energieffektivitet och förbrukar endast cirka 20 watt, jämfört med de enorma energibehov som moderna LLM:er kräver.

"Hjärnnätverk uppnår sin effektivitet genom att tillföra fler olika neuron-typer och selektiv konnektivitet mellan olika typer av neuroner i distinkta moduler inom nätverket, snarare än att bara lägga till fler neuroner, lager och kopplingar," förklarar en studie publicerad i Nature Human Behaviour.

I en oväntad utveckling har forskare vid BrainBench funnit att LLM:er nu överträffar mänskliga experter i att förutsäga resultat från neurovetenskapliga experiment. Deras specialiserade modell, BrainGPT, nådde 81 % noggrannhet jämfört med 63 % för neuroforskare. Liksom mänskliga experter visade LLM:er högre precision när de uttryckte större tilltro till sina förutsägelser.

Dessa fynd antyder en framtid där hjärninspirerad databehandling dramatiskt kan förbättra AI:s effektivitet. Forskare utforskar spikande neurala nätverk (SNN:er) som efterliknar biologiska neuroner ännu närmare, vilket potentiellt möjliggör allt från energieffektiva drönare för sök- och räddningsinsatser till avancerade neurala proteser.

Allteftersom LLM:er fortsätter att utvecklas mot mer hjärnliknande bearbetning, suddas gränsen mellan artificiell och biologisk intelligens alltmer ut, vilket väcker djupgående frågor om själva kognitionens natur.

Source: Lesswrong.com

Latest News