menu
close

AI modeli pokazuju ljudske socijalne vještine u testovima teorije igara

Istraživači su otkrili da veliki jezični modeli (LLM-ovi) pokazuju sofisticirane sposobnosti socijalnog rasuđivanja kada se testiraju u okvirima teorije igara. Studija pod vodstvom dr. Erica Schulza otkriva da, iako ti AI sustavi briljiraju u donošenju odluka iz vlastitog interesa, imaju poteškoća s koordinacijom i timskim zadacima. Istraživanje uvodi obećavajuću tehniku nazvanu Social Chain-of-Thought (SCoT) koja značajno poboljšava kooperativno ponašanje AI-a potičući modele da uzmu u obzir perspektivu drugih.
AI modeli pokazuju ljudske socijalne vještine u testovima teorije igara

Veliki jezični modeli poput GPT-4 sve su više integrirani u naš svakodnevni život, od sastavljanja e-mailova do podrške u donošenju odluka u zdravstvu. Kako ti AI sustavi postaju sve prisutniji, razumijevanje njihovih socijalnih sposobnosti postaje ključno za učinkovitu suradnju između ljudi i umjetne inteligencije.

Revolucionarna studija objavljena u časopisu Nature Human Behaviour, koju su proveli istraživači iz Helmholtz Münchena, Max Planck instituta za biološku kibernetiku i Sveučilišta u Tübingenu, sustavno je procijenila kako LLM-ovi funkcioniraju u društvenim situacijama koristeći okvire bihevioralne teorije igara.

Istraživački tim pod vodstvom dr. Erica Schulza uključio je različite AI modele u klasične scenarije teorije igara osmišljene za testiranje suradnje, natjecanja i strateškog odlučivanja. Njihova otkrića otkrivaju nijansiranu sliku socijalnih sposobnosti umjetne inteligencije.

"U nekim slučajevima, AI se činio gotovo previše racionalnim za vlastito dobro," objašnjava dr. Schulz. "Mogao je odmah prepoznati prijetnju ili sebičan potez i odgovoriti odmazdom, ali mu je bilo teško sagledati širu sliku povjerenja, suradnje i kompromisa."

Studija je pokazala da LLM-ovi posebno dobro funkcioniraju u igrama temeljenim na vlastitom interesu, poput ponavljane Zatvorenikove dileme, gdje je zaštita vlastitih interesa najvažnija. Međutim, ponašaju se suboptimalno u igrama koje zahtijevaju koordinaciju i međusobni kompromis, poput igre "Bitka spolova".

Najveći potencijal pokazuje razvoj tehnike nazvane Social Chain-of-Thought (SCoT), koja potiče AI da prije donošenja odluka uzme u obzir perspektivu drugih. Ova jednostavna intervencija značajno je poboljšala suradnju i prilagodljivost, čak i u interakciji s ljudskim igračima. "Kada smo model potaknuli na socijalno rasuđivanje, počeo se ponašati na načine koji su djelovali mnogo ljudskije," istaknula je Elif Akata, prva autorica studije.

Implikacije ovih otkrića nadilaze samu teoriju igara. Kako se LLM-ovi sve više integriraju u zdravstvo, poslovanje i društvene okvire, njihova sposobnost razumijevanja ljudske socijalne dinamike bit će ključna. Ovo istraživanje pruža vrijedne uvide u to kako AI sustavi mogu funkcionirati u složenim društvenim okruženjima i nudi praktične metode za unapređenje njihove socijalne inteligencije.

Source:

Latest News