Des scientifiques ont mis en évidence des parallèles frappants entre la façon dont les grands modèles de langage (LLM) et le cerveau humain traitent le langage, malgré des architectures et des besoins énergétiques radicalement différents.
Une étude collaborative menée par Google Research, l’Université de Princeton, NYU et l’Université hébraïque de Jérusalem a révélé que l’activité neuronale du cerveau humain s’aligne linéairement avec les représentations contextuelles internes des LLM lors de conversations naturelles. Les chercheurs ont découvert que les deux systèmes partagent trois principes computationnels fondamentaux : ils prédisent les mots à venir avant de les entendre, comparent leurs prédictions à l’entrée réelle pour calculer la surprise, et s’appuient sur des représentations contextuelles pour donner un sens aux mots.
« Nous démontrons que les représentations internes générées au niveau du mot par les modèles de langage profonds s’alignent avec les schémas d’activité neuronale dans les régions cérébrales associées à la compréhension et à la production du langage », notent les chercheurs dans leurs résultats publiés dans Nature Neuroscience.
Cependant, des différences majeures subsistent. Alors que les LLM traitent simultanément des centaines de milliers de mots, le cerveau humain traite le langage de manière sérielle, mot par mot. Plus important encore, le cerveau humain réalise des tâches cognitives complexes avec une efficacité énergétique remarquable, ne consommant qu’environ 20 watts, contre les besoins énergétiques massifs des LLM modernes.
« Les réseaux cérébraux atteignent leur efficacité en ajoutant une plus grande diversité de types neuronaux et une connectivité sélective entre différents types de neurones dans des modules distincts du réseau, plutôt qu’en ajoutant simplement plus de neurones, de couches et de connexions », explique une étude publiée dans Nature Human Behaviour.
Dans un développement surprenant, des chercheurs de BrainBench ont constaté que les LLM surpassent désormais les experts humains dans la prédiction des résultats d’expériences en neurosciences. Leur modèle spécialisé, BrainGPT, a atteint une précision de 81 %, contre 63 % pour les neuroscientifiques. Comme les experts humains, les LLM affichaient une plus grande précision lorsqu’ils exprimaient une confiance accrue dans leurs prédictions.
Ces découvertes suggèrent qu’un avenir où l’informatique inspirée du cerveau pourrait améliorer radicalement l’efficacité de l’IA est envisageable. Les chercheurs explorent les réseaux neuronaux impulsionnels (SNN), qui imitent de plus près les neurones biologiques, ouvrant potentiellement la voie à des applications allant de drones de recherche et sauvetage économes en énergie à des prothèses neurales avancées.
À mesure que les LLM évoluent vers un traitement de plus en plus proche de celui du cerveau, la frontière entre intelligence artificielle et biologique devient de plus en plus floue, soulevant des questions profondes sur la nature même de la cognition.