menu
close

Modele AI wykazują ludzkie umiejętności społeczne w testach teorii gier

Naukowcy odkryli, że duże modele językowe (LLM) wykazują zaawansowane zdolności rozumowania społecznego podczas testów w ramach teorii gier. Badanie pod kierunkiem dr. Erica Schulza pokazuje, że choć te systemy AI świetnie radzą sobie z decyzjami nastawionymi na własny interes, mają trudności z zadaniami wymagającymi koordynacji i pracy zespołowej. W pracy przedstawiono obiecującą technikę Social Chain-of-Thought (SCoT), która znacząco poprawia kooperatywność AI, skłaniając modele do uwzględniania perspektywy innych.
Modele AI wykazują ludzkie umiejętności społeczne w testach teorii gier

Duże modele językowe, takie jak GPT-4, są coraz częściej wykorzystywane w naszym codziennym życiu — od pisania e-maili po wspieranie decyzji w ochronie zdrowia. Wraz ze wzrostem ich obecności kluczowe staje się zrozumienie ich kompetencji społecznych dla efektywnej współpracy człowieka z AI.

Przełomowe badanie opublikowane w czasopiśmie Nature Human Behaviour przez naukowców z Helmholtz Munich, Instytutu Maxa Plancka ds. Cybernetyki Biologicznej oraz Uniwersytetu w Tybindze systematycznie oceniło, jak LLM radzą sobie w sytuacjach społecznych z wykorzystaniem ram teorii gier behawioralnych.

Zespół badawczy pod kierunkiem dr. Erica Schulza zaangażował różne modele AI w klasyczne scenariusze teorii gier, mające na celu testowanie współpracy, rywalizacji i podejmowania decyzji strategicznych. Wyniki ujawniają złożony obraz społecznych możliwości AI.

„W niektórych przypadkach AI wydawała się wręcz zbyt racjonalna dla własnego dobra” — wyjaśnia dr Schulz. „Potrafiła natychmiast dostrzec zagrożenie lub egoistyczny ruch i odpowiedzieć odwetem, ale miała trudności z dostrzeżeniem szerszego kontekstu zaufania, współpracy i kompromisu.”

Badanie wykazało, że LLM szczególnie dobrze radzą sobie w grach nastawionych na własny interes, takich jak iterowane Dylematy Więźnia, gdzie ochrona własnych interesów jest najważniejsza. Jednak w grach wymagających koordynacji i wzajemnych kompromisów, takich jak Bitwa Płci, ich zachowanie jest suboptymalne.

Najbardziej obiecującym elementem pracy jest opracowanie techniki Social Chain-of-Thought (SCoT), która skłania AI do uwzględniania perspektywy innych przed podjęciem decyzji. Ta prosta interwencja znacząco poprawiła współpracę i elastyczność modeli, nawet podczas interakcji z ludźmi. „Gdy tylko nakierowaliśmy model na rozumowanie społeczne, zaczął zachowywać się w sposób znacznie bardziej ludzki” — zauważa Elif Akata, pierwsza autorka badania.

Konsekwencje tych odkryć wykraczają daleko poza teorię gier. W miarę jak LLM będą coraz szerzej stosowane w ochronie zdrowia, biznesie i środowiskach społecznych, ich zdolność do rozumienia ludzkiej dynamiki społecznej stanie się kluczowa. Badanie dostarcza cennych wskazówek, jak systemy AI mogą funkcjonować w złożonych środowiskach społecznych, oraz oferuje praktyczne metody zwiększania ich inteligencji społecznej.

Source:

Latest News