menu
close

AI-modeller visar människoliknande sociala färdigheter i spelteoritester

Forskare har upptäckt att stora språkmodeller (LLM:er) uppvisar sofistikerade sociala resonemangsförmågor när de testas inom spelteorins ramverk. En studie ledd av Dr. Eric Schulz visar att dessa AI-system är skickliga på egenintresserat beslutsfattande, men har svårigheter med samordning och lagarbete. Forskningen introducerar en lovande teknik, Social Chain-of-Thought (SCoT), som avsevärt förbättrar AI:s samarbetsförmåga genom att få modellerna att beakta andras perspektiv.
AI-modeller visar människoliknande sociala färdigheter i spelteoritester

Stora språkmodeller som GPT-4 integreras i allt högre grad i vår vardag, från att skriva e-post till att stödja beslut inom sjukvården. I takt med att dessa AI-system blir allt vanligare blir det avgörande att förstå deras sociala förmågor för att möjliggöra effektivt samarbete mellan människa och AI.

En banbrytande studie publicerad i Nature Human Behaviour av forskare från Helmholtz Munich, Max Planck-institutet för biologisk cybernetik och universitetet i Tübingen har systematiskt utvärderat hur LLM:er presterar i sociala situationer med hjälp av beteendebaserade spelteorimodeller.

Forskargruppen, ledd av Dr. Eric Schulz, lät olika AI-modeller delta i klassiska spelteoriscenarier utformade för att testa samarbete, konkurrens och strategiskt beslutsfattande. Resultaten visar på en nyanserad bild av AI:s sociala förmågor.

"I vissa fall verkade AI:n nästan för rationell för sitt eget bästa," förklarar Dr. Schulz. "Den kunde omedelbart identifiera ett hot eller ett själviskt drag och svara med vedergällning, men hade svårt att se den större bilden av tillit, samarbete och kompromiss."

Studien visade att LLM:er presterar särskilt bra i egenintresserade spel som det itererade fångarnas dilemma, där det är avgörande att skydda sina egna intressen. Däremot agerar de mindre optimalt i spel som kräver samordning och ömsesidiga kompromisser, såsom Battle of the Sexes.

Mest lovande är teamets utveckling av en teknik kallad Social Chain-of-Thought (SCoT), som får AI att beakta andras perspektiv innan beslut fattas. Denna enkla intervention förbättrade avsevärt samarbetsförmågan och anpassningsbarheten, även i interaktioner med mänskliga spelare. "När vi fick modellen att resonera socialt började den agera på sätt som kändes mycket mer mänskliga," noterade Elif Akata, studiens förstaförfattare.

Implikationerna sträcker sig långt bortom spelteorin. I takt med att LLM:er integreras alltmer i sjukvård, näringsliv och sociala sammanhang blir deras förmåga att förstå mänsklig social dynamik avgörande. Denna forskning ger värdefulla insikter om hur AI-system kan fungera i komplexa sociala miljöer och erbjuder praktiska metoder för att stärka deras sociala intelligens.

Source:

Latest News