menu
close

Los modelos de IA muestran habilidades sociales similares a las humanas en pruebas de teoría de juegos

Investigadores han descubierto que los grandes modelos de lenguaje (LLM) demuestran sofisticadas capacidades de razonamiento social cuando se les somete a marcos de teoría de juegos. Un estudio liderado por el Dr. Eric Schulz revela que, aunque estos sistemas de IA destacan en la toma de decisiones orientadas al interés propio, tienen dificultades en tareas de coordinación y trabajo en equipo. La investigación presenta una técnica prometedora llamada Social Chain-of-Thought (SCoT) que mejora significativamente el comportamiento cooperativo de la IA al incitar a los modelos a considerar las perspectivas de los demás.
Los modelos de IA muestran habilidades sociales similares a las humanas en pruebas de teoría de juegos

Los grandes modelos de lenguaje como GPT-4 están cada vez más integrados en nuestra vida cotidiana, desde la redacción de correos electrónicos hasta el apoyo en la toma de decisiones sanitarias. A medida que estos sistemas de IA se vuelven más habituales, comprender sus capacidades sociales resulta crucial para una colaboración eficaz entre humanos y máquinas.

Un estudio pionero publicado en Nature Human Behaviour por investigadores de Helmholtz Munich, el Instituto Max Planck de Cibernética Biológica y la Universidad de Tubinga ha evaluado sistemáticamente cómo se comportan los LLM en escenarios sociales utilizando marcos de teoría de juegos conductual.

El equipo de investigación, liderado por el Dr. Eric Schulz, hizo que varios modelos de IA participaran en escenarios clásicos de teoría de juegos diseñados para poner a prueba la cooperación, la competencia y la toma de decisiones estratégicas. Sus hallazgos revelan una imagen matizada de las habilidades sociales de la IA.

"En algunos casos, la IA parecía casi demasiado racional para su propio bien", explica el Dr. Schulz. "Podía detectar una amenaza o un movimiento egoísta al instante y responder con represalias, pero le costaba ver el panorama general de la confianza, la cooperación y el compromiso".

El estudio descubrió que los LLM rinden especialmente bien en juegos de interés propio como el Dilema del Prisionero iterado, donde proteger los propios intereses es primordial. Sin embargo, se comportan de forma subóptima en juegos que requieren coordinación y compromiso mutuo, como la Batalla de los Sexos.

Lo más prometedor es el desarrollo por parte del equipo de una técnica llamada Social Chain-of-Thought (SCoT), que incita a la IA a considerar las perspectivas de los demás antes de tomar decisiones. Esta sencilla intervención mejoró significativamente la cooperación y la adaptabilidad, incluso en interacciones con jugadores humanos. "Una vez que animamos al modelo a razonar socialmente, empezó a actuar de formas que resultaban mucho más humanas", señaló Elif Akata, primera autora del estudio.

Las implicaciones van mucho más allá de la teoría de juegos. A medida que los LLM se integran en ámbitos como la sanidad, los negocios y los entornos sociales, su capacidad para comprender la dinámica social humana será fundamental. Esta investigación aporta valiosas ideas sobre cómo podrían funcionar los sistemas de IA en entornos sociales complejos y ofrece métodos prácticos para mejorar su inteligencia social.

Source:

Latest News