menu
close

Les modèles d’IA démontrent des compétences sociales similaires à celles des humains lors de tests de théorie des jeux

Des chercheurs ont découvert que les grands modèles de langage (LLM) font preuve de capacités avancées de raisonnement social lorsqu’ils sont soumis à des cadres de théorie des jeux. Une étude dirigée par le Dr Eric Schulz révèle que, bien que ces systèmes d’IA excellent dans la prise de décisions égoïstes, ils éprouvent des difficultés dans les tâches de coordination et de travail d’équipe. La recherche présente une technique prometteuse appelée Social Chain-of-Thought (SCoT), qui améliore considérablement le comportement coopératif de l’IA en incitant les modèles à tenir compte du point de vue d’autrui.
Les modèles d’IA démontrent des compétences sociales similaires à celles des humains lors de tests de théorie des jeux

Les grands modèles de langage comme GPT-4 sont de plus en plus intégrés à notre quotidien, que ce soit pour rédiger des courriels ou soutenir la prise de décisions en santé. À mesure que ces systèmes d’IA gagnent en importance, il devient essentiel de comprendre leurs capacités sociales afin d’assurer une collaboration efficace entre humains et IA.

Une étude novatrice publiée dans Nature Human Behaviour par des chercheurs de Helmholtz Munich, de l’Institut Max Planck pour la cybernétique biologique et de l’Université de Tübingen a évalué de façon systématique la performance des LLM dans des scénarios sociaux à l’aide de cadres issus de la théorie des jeux comportementale.

L’équipe de recherche, dirigée par le Dr Eric Schulz, a fait participer divers modèles d’IA à des scénarios classiques de théorie des jeux conçus pour tester la coopération, la compétition et la prise de décisions stratégiques. Leurs résultats dressent un portrait nuancé des habiletés sociales de l’IA.

« Dans certains cas, l’IA semblait presque trop rationnelle pour son propre bien », explique le Dr Schulz. « Elle pouvait détecter une menace ou un geste égoïste instantanément et réagir par des représailles, mais elle avait du mal à saisir l’importance de la confiance, de la coopération et du compromis. »

L’étude a révélé que les LLM performent particulièrement bien dans des jeux axés sur l’intérêt personnel, comme le dilemme du prisonnier itéré, où la protection de ses propres intérêts est primordiale. Toutefois, ils adoptent des comportements sous-optimaux dans des jeux nécessitant coordination et compromis mutuel, tels que le jeu du Battle of the Sexes.

L’aspect le plus prometteur est le développement par l’équipe d’une technique appelée Social Chain-of-Thought (SCoT), qui incite l’IA à considérer le point de vue des autres avant de prendre une décision. Cette intervention simple a permis d’améliorer de façon significative la coopération et l’adaptabilité, même lors d’interactions avec des participants humains. « Dès qu’on a incité le modèle à raisonner socialement, il s’est mis à agir de façon beaucoup plus humaine », souligne Elif Akata, première auteure de l’étude.

Les implications de ces résultats dépassent largement la théorie des jeux. À mesure que les LLM s’intègrent dans les domaines de la santé, des affaires et des milieux sociaux, leur capacité à comprendre la dynamique sociale humaine sera cruciale. Cette recherche offre un éclairage précieux sur la façon dont les systèmes d’IA pourraient fonctionner dans des environnements sociaux complexes et propose des méthodes concrètes pour améliorer leur intelligence sociale.

Source:

Latest News