Gli scienziati hanno scoperto sorprendenti parallelismi tra il modo in cui i large language model (LLM) e il cervello umano elaborano il linguaggio, nonostante le loro architetture e i requisiti energetici siano profondamente diversi.
Uno studio collaborativo condotto da Google Research, Princeton University, NYU e l’Università Ebraica di Gerusalemme ha rilevato che l’attività neurale nel cervello umano si allinea linearmente con gli embedding contestuali interni dei LLM durante conversazioni naturali. I ricercatori hanno scoperto che entrambi i sistemi condividono tre principi computazionali fondamentali: prevedono le parole successive prima di ascoltarle, confrontano le previsioni con l’input reale per calcolare la sorpresa e si affidano agli embedding contestuali per rappresentare le parole in modo significativo.
"Dimostriamo che gli embedding interni a livello di parola generati dai deep language model si allineano con i pattern di attività neurale nelle regioni cerebrali note per la comprensione e la produzione del linguaggio", hanno osservato i ricercatori nei risultati pubblicati su Nature Neuroscience.
Tuttavia, esistono differenze significative. Mentre i LLM elaborano centinaia di migliaia di parole simultaneamente, il cervello umano processa il linguaggio in modo seriale, parola per parola. Ancora più importante, il cervello umano svolge compiti cognitivi complessi con un’efficienza energetica straordinaria, consumando solo circa 20 watt di potenza, a fronte dei massicci requisiti energetici dei LLM moderni.
"Le reti cerebrali raggiungono la loro efficienza aggiungendo una maggiore diversità di tipi neuronali e connessioni selettive tra diversi tipi di neuroni in moduli distinti della rete, piuttosto che semplicemente aumentando il numero di neuroni, strati e connessioni", spiega uno studio pubblicato su Nature Human Behaviour.
In uno sviluppo sorprendente, i ricercatori di BrainBench hanno scoperto che i LLM ora superano gli esperti umani nel prevedere gli esiti di esperimenti neuroscientifici. Il loro modello specializzato, BrainGPT, ha raggiunto un’accuratezza dell’81% rispetto al 63% degli neuroscienziati. Come gli esperti umani, i LLM hanno mostrato una precisione maggiore quando esprimevano maggiore fiducia nelle proprie previsioni.
Queste scoperte suggeriscono un futuro in cui il calcolo ispirato al cervello potrebbe migliorare drasticamente l’efficienza dell’IA. I ricercatori stanno esplorando le reti neurali spiking (SNN), che imitano più da vicino i neuroni biologici, potenzialmente abilitando applicazioni che vanno dai droni per ricerca e soccorso a basso consumo energetico a protesi neurali avanzate.
Man mano che i LLM continuano ad evolversi verso una elaborazione sempre più simile a quella cerebrale, il confine tra intelligenza artificiale e biologica si fa sempre più sfumato, sollevando interrogativi profondi sulla natura stessa della cognizione.