menu
close

Модели искусственного интеллекта демонстрируют человеческие социальные навыки в тестах теории игр

Исследователи обнаружили, что большие языковые модели (LLM) проявляют сложные способности к социальному рассуждению при тестировании в рамках теории игр. Исследование под руководством доктора Эрика Шульца показало, что эти ИИ-системы отлично справляются с задачами, требующими эгоистичного принятия решений, но испытывают трудности с координацией и командной работой. В работе представлена перспективная методика Social Chain-of-Thought (SCoT), которая значительно улучшает кооперативное поведение ИИ за счёт стимулирования моделей учитывать точку зрения других.
Модели искусственного интеллекта демонстрируют человеческие социальные навыки в тестах теории игр

Крупные языковые модели, такие как GPT-4, всё активнее внедряются в нашу повседневную жизнь — от написания электронных писем до поддержки принятия решений в здравоохранении. По мере того как эти ИИ-системы становятся всё более распространёнными, понимание их социальных возможностей становится критически важным для эффективного взаимодействия человека и машины.

Ведущееся исследование, опубликованное в журнале Nature Human Behaviour учёными из Helmholtz Munich, Института биологической кибернетики Общества Макса Планка и Университета Тюбингена, систематически оценило, как LLM справляются с социальными сценариями, используя поведенческие рамки теории игр.

Команда исследователей под руководством доктора Эрика Шульца предложила различным ИИ-моделям принять участие в классических сценариях теории игр, предназначенных для проверки кооперации, конкуренции и стратегического принятия решений. Их результаты выявили сложную картину социальных способностей ИИ.

«В некоторых случаях ИИ казался даже слишком рациональным для собственного блага», — объясняет доктор Шульц. — «Он мгновенно замечал угрозу или эгоистичный ход и отвечал ответной реакцией, но ему было сложно увидеть более широкую картину доверия, сотрудничества и компромисса».

Исследование показало, что LLM особенно хорошо проявляют себя в играх, где на первом месте стоят собственные интересы, например, в итерационной дилемме заключённого. Однако в играх, требующих координации и взаимных уступок, таких как «Битва полов», их поведение оказывается неоптимальным.

Наиболее перспективной частью работы стало внедрение методики Social Chain-of-Thought (SCoT), которая побуждает ИИ учитывать точку зрения других перед принятием решения. Эта простая интервенция значительно повысила уровень кооперации и адаптивности, даже при взаимодействии с людьми. «Стоило нам подтолкнуть модель к социальному рассуждению, как она начала вести себя гораздо более по-человечески», — отметила Элиф Аката, первый автор исследования.

Влияние этих результатов выходит далеко за рамки теории игр. По мере интеграции LLM в здравоохранение, бизнес и социальные сферы их способность понимать человеческую социальную динамику становится критически важной. Это исследование даёт ценные представления о том, как ИИ-системы могут функционировать в сложных социальных условиях, и предлагает практические методы повышения их социальной интеллигентности.

Source:

Latest News