menu
close

LLM’er og menneskehjernen: Overraskende paralleller dukker op

Ny forskning afslører bemærkelsesværdige ligheder mellem store sprogmodeller (LLM’er) og menneskets hjerne, hvor begge systemer benytter næste-ord-forudsigelse og kontekstuel forståelse. Studier viser, at LLM’er nu kan overgå menneskelige eksperter i at forudsige resultater inden for neurovidenskab, selvom de stadig er tusindvis af gange mindre energieffektive end hjernen. Disse resultater peger på en fremtid, hvor hjerneinspireret computing kan revolutionere AI-udviklingen.
LLM’er og menneskehjernen: Overraskende paralleller dukker op

Forskere har afdækket slående paralleller mellem, hvordan store sprogmodeller (LLM’er) og menneskehjernen bearbejder sprog, på trods af deres vidt forskellige arkitekturer og energibehov.

Et samarbejdsstudie mellem Google Research, Princeton University, NYU og Hebrew University of Jerusalem har vist, at neural aktivitet i menneskehjernen lineært stemmer overens med de interne kontekstuelle indlejringer i LLM’er under naturlige samtaler. Forskerne opdagede, at begge systemer deler tre grundlæggende beregningsprincipper: de forudsiger kommende ord, før de høres, sammenligner forudsigelser med faktisk input for at beregne overraskelse og benytter kontekstuelle indlejringer til at repræsentere ord meningsfuldt.

"Vi demonstrerer, at de ordniveau-indlejringer, der genereres af dybe sprogmodeller, stemmer overens med de neurale aktivitetsmønstre i etablerede hjerneområder forbundet med taleopfattelse og -produktion," bemærker forskerne i deres resultater offentliggjort i Nature Neuroscience.

Der eksisterer dog væsentlige forskelle. Hvor LLM’er kan behandle hundredtusindvis af ord samtidigt, bearbejder menneskehjernen sprog serielt, ord for ord. Endnu vigtigere er det, at menneskehjernen udfører komplekse kognitive opgaver med bemærkelsesværdig energieffektivitet og kun bruger omkring 20 watt strøm, sammenlignet med de enorme energikrav fra moderne LLM’er.

"Hjernenetværk opnår deres effektivitet ved at tilføje flere forskellige neuron-typer og selektiv konnektivitet mellem forskellige typer neuroner i adskilte moduler i netværket, frem for blot at tilføje flere neuroner, lag og forbindelser," forklarer et studie offentliggjort i Nature Human Behaviour.

I en overraskende udvikling har forskere ved BrainBench fundet, at LLM’er nu overgår menneskelige eksperter i at forudsige resultater af neurovidenskabelige eksperimenter. Deres specialiserede model, BrainGPT, opnåede 81 % nøjagtighed mod 63 % for neuroforskere. Ligesom menneskelige eksperter viste LLM’er højere nøjagtighed, når de udtrykte større selvtillid i deres forudsigelser.

Disse resultater peger på en fremtid, hvor hjerneinspireret computing dramatisk kan forbedre AI’s effektivitet. Forskere undersøger såkaldte spiking neural networks (SNN’er), der efterligner biologiske neuroner mere præcist, hvilket potentielt kan muliggøre alt fra energieffektive droner til eftersøgning og redning til avancerede neurale proteser.

Efterhånden som LLM’er fortsætter med at udvikle sig mod mere hjerne-lignende bearbejdning, bliver grænsen mellem kunstig og biologisk intelligens stadig mere udvisket, hvilket rejser dybtgående spørgsmål om selve bevidsthedens natur.

Source: Lesswrong.com

Latest News