Des scientifiques ont mis en lumière des parallèles frappants entre la façon dont les grands modèles de langage (LLM) et le cerveau humain traitent le langage, malgré leurs architectures et besoins énergétiques radicalement différents.
Une étude collaborative menée par Google Research, l’Université Princeton, NYU et l’Université hébraïque de Jérusalem a révélé que l’activité neuronale du cerveau humain s’aligne de façon linéaire avec les représentations contextuelles internes des LLM lors de conversations naturelles. Les chercheurs ont découvert que les deux systèmes partagent trois principes computationnels fondamentaux : ils prédisent les mots à venir avant de les entendre, comparent leurs prédictions à l’entrée réelle pour calculer la surprise, et s’appuient sur des représentations contextuelles pour donner un sens aux mots.
« Nous démontrons que les représentations internes générées au niveau du mot par les modèles de langage profonds s’alignent avec les schémas d’activité neuronale dans les régions cérébrales associées à la compréhension et à la production du langage », notent les chercheurs dans leurs résultats publiés dans Nature Neuroscience.
Cependant, d’importantes différences subsistent. Alors que les LLM traitent des centaines de milliers de mots simultanément, le cerveau humain traite le langage de façon sérielle, un mot à la fois. Plus important encore, le cerveau humain réalise des tâches cognitives complexes avec une efficacité énergétique remarquable, ne consommant qu’environ 20 watts, comparativement aux besoins énergétiques massifs des LLM modernes.
« Les réseaux cérébraux atteignent leur efficacité en ajoutant une plus grande diversité de types neuronaux et une connectivité sélective entre divers types de neurones dans des modules distincts du réseau, plutôt qu’en ajoutant simplement plus de neurones, de couches et de connexions », explique une étude publiée dans Nature Human Behaviour.
Fait surprenant, des chercheurs de BrainBench ont constaté que les LLM surpassent désormais les experts humains pour prédire les résultats d’expériences en neurosciences. Leur modèle spécialisé, BrainGPT, a atteint une précision de 81 %, contre 63 % pour les neuroscientifiques. Comme les experts humains, les LLM affichaient une plus grande précision lorsqu’ils exprimaient une confiance accrue dans leurs prédictions.
Ces résultats laissent entrevoir un avenir où l’informatique inspirée du cerveau pourrait améliorer radicalement l’efficacité de l’IA. Les chercheurs explorent les réseaux neuronaux impulsionnels (SNN), qui imitent de plus près les neurones biologiques, ce qui pourrait permettre des applications allant de drones de recherche et sauvetage écoénergétiques à des prothèses neuronales avancées.
À mesure que les LLM continuent d’évoluer vers un traitement plus proche de celui du cerveau, la frontière entre intelligence artificielle et intelligence biologique devient de plus en plus floue, soulevant des questions profondes sur la nature même de la cognition.