Científicos han descubierto sorprendentes paralelismos entre la forma en que los grandes modelos de lenguaje (LLMs) y el cerebro humano procesan el lenguaje, a pesar de sus arquitecturas y necesidades energéticas radicalmente diferentes.
Un estudio colaborativo de Google Research, la Universidad de Princeton, la Universidad de Nueva York (NYU) y la Universidad Hebrea de Jerusalén ha hallado que la actividad neuronal en el cerebro humano se alinea linealmente con las representaciones contextuales internas de los LLMs durante conversaciones naturales. Los investigadores descubrieron que ambos sistemas comparten tres principios computacionales fundamentales: predicen las próximas palabras antes de oírlas, comparan las predicciones con la entrada real para calcular la sorpresa y dependen de representaciones contextuales para dotar de significado a las palabras.
"Demostramos que las representaciones internas a nivel de palabra generadas por los modelos de lenguaje profundo se alinean con los patrones de actividad neuronal en regiones cerebrales establecidas asociadas a la comprensión y producción del habla", señalaron los investigadores en sus conclusiones publicadas en Nature Neuroscience.
Sin embargo, existen diferencias significativas. Mientras que los LLMs procesan cientos de miles de palabras simultáneamente, el cerebro humano procesa el lenguaje de forma secuencial, palabra por palabra. Más importante aún, el cerebro humano realiza tareas cognitivas complejas con una eficiencia energética asombrosa, consumiendo solo unos 20 vatios de potencia, en comparación con los enormes requerimientos energéticos de los LLMs modernos.
"Las redes cerebrales logran su eficiencia añadiendo una mayor diversidad de tipos neuronales y conectividad selectiva entre distintos tipos de neuronas en módulos diferenciados dentro de la red, en lugar de simplemente añadir más neuronas, capas y conexiones", explica un estudio publicado en Nature Human Behaviour.
En un desarrollo sorprendente, investigadores de BrainBench han comprobado que los LLMs ya superan a expertos humanos en la predicción de resultados experimentales en neurociencia. Su modelo especializado, BrainGPT, alcanzó una precisión del 81% frente al 63% de los neurocientíficos. Al igual que los expertos humanos, los LLMs mostraron mayor precisión cuando expresaban mayor confianza en sus predicciones.
Estos hallazgos apuntan a un futuro en el que la computación inspirada en el cerebro podría mejorar drásticamente la eficiencia de la IA. Los investigadores están explorando redes neuronales de picos (SNNs) que imitan más de cerca a las neuronas biológicas, lo que podría permitir aplicaciones que van desde drones de búsqueda y rescate energéticamente eficientes hasta prótesis neuronales avanzadas.
A medida que los LLMs continúan evolucionando hacia un procesamiento más similar al cerebral, la frontera entre la inteligencia artificial y la biológica se difumina cada vez más, planteando profundas cuestiones sobre la propia naturaleza de la cognición.