Les grands modèles de langage comme GPT-4 s’intègrent de plus en plus dans notre quotidien, que ce soit pour rédiger des courriels ou pour assister à la prise de décision en santé. À mesure que ces systèmes d’IA gagnent en présence, il devient essentiel de comprendre leurs capacités sociales pour une collaboration homme-machine efficace.
Une étude novatrice publiée dans Nature Human Behaviour par des chercheurs du Helmholtz Munich, de l’Institut Max Planck pour la cybernétique biologique et de l’Université de Tübingen a évalué de façon systématique les performances des LLM dans des scénarios sociaux à l’aide de cadres issus de la théorie comportementale des jeux.
L’équipe de recherche, dirigée par le Dr Eric Schulz, a confronté différents modèles d’IA à des situations classiques de théorie des jeux conçues pour tester la coopération, la compétition et la prise de décision stratégique. Leurs résultats dressent un tableau nuancé des aptitudes sociales de l’IA.
« Dans certains cas, l’IA semblait presque trop rationnelle pour son propre bien », explique le Dr Schulz. « Elle pouvait repérer instantanément une menace ou un comportement égoïste et réagir par des représailles, mais elle avait du mal à percevoir l’importance de la confiance, de la coopération et du compromis. »
L’étude a montré que les LLM s’en sortent particulièrement bien dans des jeux à intérêt personnel comme le dilemme du prisonnier itéré, où la protection de ses propres intérêts prime. En revanche, ils adoptent des comportements sous-optimaux dans des jeux nécessitant coordination et compromis mutuel, comme la Bataille des sexes.
L’avancée la plus prometteuse réside dans le développement par l’équipe d’une technique baptisée Social Chain-of-Thought (SCoT), qui incite l’IA à considérer le point de vue d’autrui avant de prendre une décision. Cette simple intervention a permis d’améliorer nettement la coopération et l’adaptabilité des modèles, y compris lors d’interactions avec des humains. « Dès lors que nous avons encouragé le modèle à raisonner socialement, il a commencé à agir de manière bien plus humaine », souligne Elif Akata, première autrice de l’étude.
Les implications de ces travaux vont bien au-delà de la théorie des jeux. À mesure que les LLM s’intègrent dans la santé, le monde des affaires ou les interactions sociales, leur capacité à comprendre la dynamique sociale humaine sera déterminante. Cette recherche offre un éclairage précieux sur la façon dont les systèmes d’IA pourraient fonctionner dans des environnements sociaux complexes et propose des méthodes concrètes pour renforcer leur intelligence sociale.