menu
close

LLMs y cerebros humanos: surgen sorprendentes paralelismos

Investigaciones recientes revelan similitudes notables entre los grandes modelos de lenguaje (LLMs) y el procesamiento cerebral humano, ya que ambos sistemas emplean la predicción de la siguiente palabra y la comprensión contextual. Los estudios muestran que los LLMs ahora pueden superar a expertos humanos al predecir resultados en neurociencia, aunque siguen siendo miles de veces menos eficientes energéticamente que el cerebro. Estos hallazgos sugieren un futuro en el que la computación inspirada en el cerebro podría revolucionar el desarrollo de la inteligencia artificial.
LLMs y cerebros humanos: surgen sorprendentes paralelismos

Científicos han descubierto sorprendentes paralelismos entre la forma en que los grandes modelos de lenguaje (LLMs) y el cerebro humano procesan el lenguaje, a pesar de sus arquitecturas y requerimientos energéticos radicalmente diferentes.

Un estudio colaborativo realizado por Google Research, la Universidad de Princeton, NYU y la Universidad Hebrea de Jerusalén encontró que la actividad neuronal en el cerebro humano se alinea linealmente con las representaciones contextuales internas de los LLMs durante conversaciones naturales. Los investigadores descubrieron que ambos sistemas comparten tres principios computacionales fundamentales: predicen las palabras que vienen antes de escucharlas, comparan sus predicciones con la entrada real para calcular la sorpresa y dependen de representaciones contextuales para dar significado a las palabras.

"Demostramos que las representaciones internas a nivel de palabra generadas por los modelos de lenguaje profundo se alinean con los patrones de actividad neuronal en regiones cerebrales establecidas asociadas con la comprensión y producción del habla", señalaron los investigadores en sus hallazgos publicados en Nature Neuroscience.

Sin embargo, existen diferencias significativas. Mientras que los LLMs procesan cientos de miles de palabras simultáneamente, el cerebro humano procesa el lenguaje de manera secuencial, palabra por palabra. Más importante aún, el cerebro humano realiza tareas cognitivas complejas con una eficiencia energética asombrosa, consumiendo solo alrededor de 20 vatios de potencia, en comparación con los enormes requerimientos energéticos de los LLMs modernos.

"Las redes cerebrales logran su eficiencia añadiendo una mayor diversidad de tipos neuronales y conectividad selectiva entre distintos tipos de neuronas en módulos específicos dentro de la red, en lugar de simplemente agregar más neuronas, capas y conexiones", explica un estudio publicado en Nature Human Behaviour.

En un desarrollo sorprendente, investigadores de BrainBench encontraron que los LLMs ahora superan a expertos humanos al predecir los resultados de experimentos en neurociencia. Su modelo especializado, BrainGPT, alcanzó una precisión del 81% frente al 63% de los neurocientíficos. Al igual que los expertos humanos, los LLMs mostraron mayor precisión cuando expresaron mayor confianza en sus predicciones.

Estos hallazgos sugieren un futuro en el que la computación inspirada en el cerebro podría mejorar drásticamente la eficiencia de la inteligencia artificial. Los investigadores están explorando redes neuronales de picos (SNNs) que imitan más de cerca a las neuronas biológicas, lo que podría habilitar aplicaciones que van desde drones de búsqueda y rescate energéticamente eficientes hasta prótesis neuronales avanzadas.

A medida que los LLMs continúan evolucionando hacia un procesamiento más similar al del cerebro, la frontera entre la inteligencia artificial y la biológica se vuelve cada vez más difusa, planteando profundas preguntas sobre la naturaleza misma de la cognición.

Source: Lesswrong.com

Latest News