menu
close

AI-modeller udviser menneskelignende sociale færdigheder i spilteoritests

Forskere har opdaget, at store sprogmodeller (LLM'er) udviser sofistikerede sociale ræsonnementsevner, når de testes i spilteoretiske rammer. Et studie ledet af Dr. Eric Schulz viser, at disse AI-systemer er dygtige til egeninteresseret beslutningstagning, men har svært ved opgaver, der kræver koordinering og teamwork. Forskningen introducerer en lovende teknik kaldet Social Chain-of-Thought (SCoT), som markant forbedrer AI'ens samarbejdsevne ved at få modellerne til at overveje andres perspektiver.
AI-modeller udviser menneskelignende sociale færdigheder i spilteoritests

Store sprogmodeller som GPT-4 bliver i stigende grad integreret i vores dagligdag, fra at skrive e-mails til at understøtte beslutninger i sundhedssektoren. Efterhånden som disse AI-systemer bliver mere udbredte, bliver det afgørende at forstå deres sociale evner for at sikre effektivt samarbejde mellem mennesker og AI.

Et banebrydende studie, offentliggjort i Nature Human Behaviour af forskere fra Helmholtz Munich, Max Planck Institute for Biological Cybernetics og Universität Tübingen, har systematisk evalueret, hvordan LLM'er klarer sig i sociale scenarier ved hjælp af adfærdsbaserede spilteorirammer.

Forskerholdet, ledet af Dr. Eric Schulz, lod forskellige AI-modeller deltage i klassiske spilteoretiske scenarier designet til at teste samarbejde, konkurrence og strategisk beslutningstagning. Resultaterne afslører et nuanceret billede af AI'ens sociale evner.

"I nogle tilfælde virkede AI'en næsten for rationel for sit eget bedste," forklarer Dr. Schulz. "Den kunne straks spotte en trussel eller en egoistisk handling og svare igen med gengældelse, men havde svært ved at se det større billede med tillid, samarbejde og kompromis."

Studiet fandt, at LLM'er klarer sig særligt godt i egeninteresserede spil som det gentagne Fangers Dilemma, hvor det gælder om at beskytte egne interesser. Til gengæld opfører de sig suboptimalt i spil, der kræver koordinering og gensidige kompromiser, såsom Battle of the Sexes.

Mest lovende er holdets udvikling af en teknik kaldet Social Chain-of-Thought (SCoT), som får AI'en til at overveje andres perspektiver, før den træffer beslutninger. Denne simple intervention forbedrede markant samarbejdsevne og tilpasningsevne – selv i samspil med menneskelige spillere. "Når vi gav modellen et lille skub til at ræsonnere socialt, begyndte den at handle på måder, der føltes langt mere menneskelige," bemærker Elif Akata, førsteforfatter på studiet.

Konsekvenserne rækker langt ud over spilteori. Efterhånden som LLM'er bliver mere integreret i sundhedssektoren, erhvervslivet og sociale sammenhænge, vil deres evne til at forstå menneskelige sociale dynamikker være afgørende. Denne forskning giver værdifuld indsigt i, hvordan AI-systemer kan fungere i komplekse sociale miljøer, og tilbyder praktiske metoder til at styrke deres sociale intelligens.

Source:

Latest News