menu
close

Modelos de IA muestran habilidades sociales similares a las humanas en pruebas de teoría de juegos

Investigadores han descubierto que los grandes modelos de lenguaje (LLM) demuestran sofisticadas habilidades de razonamiento social cuando se les evalúa en marcos de teoría de juegos. Un estudio liderado por el Dr. Eric Schulz revela que, aunque estos sistemas de IA sobresalen en la toma de decisiones orientadas al interés propio, tienen dificultades en tareas de coordinación y trabajo en equipo. La investigación introduce una técnica prometedora llamada Social Chain-of-Thought (SCoT) que mejora significativamente el comportamiento cooperativo de la IA al motivar a los modelos a considerar las perspectivas de los demás.
Modelos de IA muestran habilidades sociales similares a las humanas en pruebas de teoría de juegos

Los grandes modelos de lenguaje como GPT-4 están cada vez más integrados en nuestra vida diaria, desde redactar correos electrónicos hasta apoyar decisiones en el sector salud. A medida que estos sistemas de IA se vuelven más comunes, comprender sus capacidades sociales es crucial para una colaboración humano-IA efectiva.

Un estudio innovador publicado en Nature Human Behaviour por investigadores de Helmholtz Munich, el Instituto Max Planck de Cibernética Biológica y la Universidad de Tübingen ha evaluado sistemáticamente cómo se desempeñan los LLM en escenarios sociales utilizando marcos de teoría de juegos conductual.

El equipo de investigación, liderado por el Dr. Eric Schulz, hizo que varios modelos de IA participaran en escenarios clásicos de teoría de juegos diseñados para poner a prueba la cooperación, la competencia y la toma de decisiones estratégicas. Sus hallazgos revelan una visión matizada de las habilidades sociales de la IA.

"En algunos casos, la IA parecía casi demasiado racional para su propio bien", explica el Dr. Schulz. "Podía detectar una amenaza o un movimiento egoísta al instante y responder con represalias, pero tenía dificultades para ver el panorama general de la confianza, la cooperación y el compromiso".

El estudio encontró que los LLM tienen un desempeño particularmente bueno en juegos orientados al interés propio, como el Dilema del Prisionero iterado, donde proteger los propios intereses es fundamental. Sin embargo, se comportan de manera subóptima en juegos que requieren coordinación y compromiso mutuo, como la Batalla de los Sexos.

Lo más prometedor es el desarrollo por parte del equipo de una técnica llamada Social Chain-of-Thought (SCoT), que motiva a la IA a considerar las perspectivas de los demás antes de tomar decisiones. Esta simple intervención mejoró significativamente la cooperación y la adaptabilidad, incluso al interactuar con jugadores humanos. "Una vez que impulsamos al modelo a razonar socialmente, comenzó a actuar de maneras que se sentían mucho más humanas", señaló Elif Akata, primera autora del estudio.

Las implicaciones van mucho más allá de la teoría de juegos. A medida que los LLM se integran en ámbitos como la salud, los negocios y los entornos sociales, su capacidad para comprender la dinámica social humana será fundamental. Esta investigación ofrece valiosos conocimientos sobre cómo podrían funcionar los sistemas de IA en entornos sociales complejos y brinda métodos prácticos para mejorar su inteligencia social.

Source:

Latest News