menu
close

LLM's en het Menselijk Brein: Verrassende Parallellen Ontdekt

Recent onderzoek onthult opmerkelijke overeenkomsten tussen grote taalmodellen (LLM's) en de verwerking in het menselijk brein. Beide systemen maken gebruik van voorspelling van het volgende woord en contextueel begrip. Studies tonen aan dat LLM's inmiddels menselijke experts overtreffen in het voorspellen van neurowetenschappelijke resultaten, hoewel ze duizenden keren minder energie-efficiënt zijn dan het brein. Deze bevindingen wijzen op een toekomst waarin door het brein geïnspireerde computertechnologie AI-ontwikkeling kan revolutioneren.
LLM's en het Menselijk Brein: Verrassende Parallellen Ontdekt

Wetenschappers hebben opvallende parallellen blootgelegd tussen de manier waarop grote taalmodellen (LLM's) en het menselijk brein taal verwerken, ondanks hun sterk verschillende architecturen en energiebehoeften.

Een gezamenlijke studie van Google Research, Princeton University, NYU en de Hebreeuwse Universiteit van Jeruzalem toont aan dat neurale activiteit in het menselijk brein lineair overeenkomt met de interne contextuele embeddings van LLM's tijdens natuurlijke gesprekken. Onderzoekers ontdekten dat beide systemen drie fundamentele computationele principes delen: ze voorspellen aankomende woorden voordat ze deze horen, vergelijken hun voorspellingen met de daadwerkelijke input om verrassing te berekenen, en vertrouwen op contextuele embeddings om woorden betekenisvol te representeren.

"We tonen aan dat de woordniveau-embeddings die door diepe taalmodellen worden gegenereerd, overeenkomen met de patronen van neurale activiteit in bekende hersengebieden die betrokken zijn bij spraakbegrip en -productie," aldus de onderzoekers in hun bevindingen, gepubliceerd in Nature Neuroscience.

Toch zijn er belangrijke verschillen. Waar LLM's honderdduizenden woorden tegelijk kunnen verwerken, verwerkt het menselijk brein taal serieel, woord voor woord. Belangrijker nog is dat het menselijk brein complexe cognitieve taken uitvoert met een opmerkelijke energie-efficiëntie: het verbruikt slechts ongeveer 20 watt, tegenover het enorme energieverbruik van moderne LLM's.

"Hersennetwerken bereiken hun efficiëntie door meer diverse neuronale typen toe te voegen en selectieve connectiviteit tussen verschillende typen neuronen in aparte modules binnen het netwerk, in plaats van simpelweg meer neuronen, lagen en verbindingen toe te voegen," legt een studie uit, gepubliceerd in Nature Human Behaviour.

In een verrassende ontwikkeling ontdekten onderzoekers van BrainBench dat LLM's nu menselijke experts overtreffen in het voorspellen van uitkomsten van neurowetenschappelijke experimenten. Hun gespecialiseerde model, BrainGPT, behaalde een nauwkeurigheid van 81% tegenover 63% voor neurowetenschappers. Net als menselijke experts lieten LLM's een hogere nauwkeurigheid zien wanneer ze meer vertrouwen uitspraken in hun voorspellingen.

Deze bevindingen wijzen op een toekomst waarin door het brein geïnspireerde computertechnologie de efficiëntie van AI drastisch kan verbeteren. Onderzoekers verkennen spiking neural networks (SNN's), die biologische neuronen nauwer nabootsen en mogelijk toepassingen mogelijk maken variërend van energiezuinige zoek- en reddingsdrones tot geavanceerde neurale protheses.

Naarmate LLM's zich verder ontwikkelen richting meer breinachtige verwerking, vervaagt de grens tussen kunstmatige en biologische intelligentie steeds verder, wat diepgaande vragen oproept over de aard van cognitie zelf.

Source: Lesswrong.com

Latest News