menu
close

Les modèles d’IA démontrent des compétences sociales proches de l’humain lors de tests de théorie des jeux

Des chercheurs ont découvert que les grands modèles de langage (LLM) font preuve de capacités sophistiquées de raisonnement social lorsqu’ils sont évalués dans des cadres de théorie des jeux. Une étude dirigée par le Dr Eric Schulz révèle que, si ces systèmes d’IA excellent dans la prise de décision égoïste, ils rencontrent des difficultés dans les tâches de coordination et de travail d’équipe. Les chercheurs présentent une technique prometteuse baptisée Social Chain-of-Thought (SCoT) qui améliore significativement le comportement coopératif de l’IA en incitant les modèles à prendre en compte le point de vue d’autrui.
Les modèles d’IA démontrent des compétences sociales proches de l’humain lors de tests de théorie des jeux

Les grands modèles de langage comme GPT-4 s’intègrent de plus en plus dans notre quotidien, que ce soit pour rédiger des courriels ou pour assister à la prise de décision en santé. À mesure que ces systèmes d’IA gagnent en présence, il devient essentiel de comprendre leurs capacités sociales pour une collaboration homme-machine efficace.

Une étude novatrice publiée dans Nature Human Behaviour par des chercheurs du Helmholtz Munich, de l’Institut Max Planck pour la cybernétique biologique et de l’Université de Tübingen a évalué de façon systématique les performances des LLM dans des scénarios sociaux à l’aide de cadres issus de la théorie comportementale des jeux.

L’équipe de recherche, dirigée par le Dr Eric Schulz, a confronté différents modèles d’IA à des situations classiques de théorie des jeux conçues pour tester la coopération, la compétition et la prise de décision stratégique. Leurs résultats dressent un tableau nuancé des aptitudes sociales de l’IA.

« Dans certains cas, l’IA semblait presque trop rationnelle pour son propre bien », explique le Dr Schulz. « Elle pouvait repérer instantanément une menace ou un comportement égoïste et réagir par des représailles, mais elle avait du mal à percevoir l’importance de la confiance, de la coopération et du compromis. »

L’étude a montré que les LLM s’en sortent particulièrement bien dans des jeux à intérêt personnel comme le dilemme du prisonnier itéré, où la protection de ses propres intérêts prime. En revanche, ils adoptent des comportements sous-optimaux dans des jeux nécessitant coordination et compromis mutuel, comme la Bataille des sexes.

L’avancée la plus prometteuse réside dans le développement par l’équipe d’une technique baptisée Social Chain-of-Thought (SCoT), qui incite l’IA à considérer le point de vue d’autrui avant de prendre une décision. Cette simple intervention a permis d’améliorer nettement la coopération et l’adaptabilité des modèles, y compris lors d’interactions avec des humains. « Dès lors que nous avons encouragé le modèle à raisonner socialement, il a commencé à agir de manière bien plus humaine », souligne Elif Akata, première autrice de l’étude.

Les implications de ces travaux vont bien au-delà de la théorie des jeux. À mesure que les LLM s’intègrent dans la santé, le monde des affaires ou les interactions sociales, leur capacité à comprendre la dynamique sociale humaine sera déterminante. Cette recherche offre un éclairage précieux sur la façon dont les systèmes d’IA pourraient fonctionner dans des environnements sociaux complexes et propose des méthodes concrètes pour renforcer leur intelligence sociale.

Source:

Latest News