menu
close

AI модели показват човешки социални умения в тестове по теория на игрите

Изследователи откриха, че големите езикови модели (LLM) демонстрират сложни способности за социално разсъждение, когато са тествани в рамките на теорията на игрите. Проучване, ръководено от д-р Ерик Шулц, разкрива, че макар тези AI системи да се справят отлично с решения, продиктувани от личен интерес, те изпитват затруднения при задачи, изискващи координация и работа в екип. Изследването представя обещаваща техника, наречена Social Chain-of-Thought (SCoT), която значително подобрява кооперативното поведение на AI, като подтиква моделите да вземат предвид гледната точка на другите.
AI модели показват човешки социални умения в тестове по теория на игрите

Големите езикови модели като GPT-4 все по-често се интегрират в ежедневието ни — от съставяне на имейли до подпомагане на решения в здравеопазването. С нарастващото им присъствие става все по-важно да разберем социалните им възможности за ефективно сътрудничество между хора и AI.

Пионерско изследване, публикувано в Nature Human Behaviour от учени от Helmholtz Munich, Института Макс Планк по биологична кибернетика и Университета в Тюбинген, систематично оценява как LLM се справят в социални ситуации чрез рамки от поведенческата теория на игрите.

Изследователският екип, ръководен от д-р Ерик Шулц, въвежда различни AI модели в класически сценарии от теорията на игрите, предназначени да тестват кооперация, конкуренция и стратегическо вземане на решения. Резултатите им разкриват нюансирана картина на социалните способности на AI.

"В някои случаи AI изглеждаше почти прекалено рационален за собствено добро," обяснява д-р Шулц. "Можеше мигновено да разпознае заплаха или егоистичен ход и да отвърне с ответна реакция, но се затрудняваше да види по-голямата картина на доверие, сътрудничество и компромис."

Проучването установява, че LLM се справят особено добре в игри, продиктувани от личен интерес, като итеративната дилема на затворника, където защитата на собствените интереси е от първостепенно значение. Въпреки това, те се държат неефективно в игри, изискващи координация и взаимни компромиси, като "Битката на половете".

Най-обещаващото е разработването от екипа на техника, наречена Social Chain-of-Thought (SCoT), която подтиква AI да взема предвид гледната точка на другите преди да вземе решение. Тази проста интервенция значително подобрява кооперацията и адаптивността, дори при взаимодействие с човешки играчи. "След като насочихме модела да разсъждава социално, той започна да действа по начини, които се усещаха много по-човешки," отбелязва Елиф Аката, първи автор на изследването.

Последствията от това излизат далеч извън теорията на игрите. С интеграцията на LLM в здравеопазването, бизнеса и социалните среди, способността им да разбират човешката социална динамика ще бъде от ключово значение. Това изследване предоставя ценни прозрения за това как AI системите могат да функционират в сложни социални среди и предлага практически методи за повишаване на тяхната социална интелигентност.

Source:

Latest News