menu
close

AI 모델, 게임 이론 테스트에서 인간과 유사한 사회적 능력 보여

연구진은 대형 언어 모델(LLM)이 게임 이론 프레임워크에서 테스트할 때 정교한 사회적 추론 능력을 보인다는 사실을 발견했다. 에릭 슐츠 박사가 이끄는 연구에 따르면, 이 AI 시스템들은 자기 이익 추구 의사결정에서는 뛰어나지만, 협력과 팀워크 과제에서는 어려움을 겪는 것으로 나타났다. 연구진은 '사회적 연쇄 사고(SCoT)'라는 유망한 기법을 도입해, AI가 타인의 관점을 고려하도록 유도함으로써 협동 행동을 크게 향상시켰다.
AI 모델, 게임 이론 테스트에서 인간과 유사한 사회적 능력 보여

GPT-4와 같은 대형 언어 모델은 이메일 작성부터 의료 의사결정 지원에 이르기까지 우리의 일상에 점점 더 깊이 통합되고 있다. 이러한 AI 시스템이 널리 보급됨에 따라, 효과적인 인간-AI 협업을 위해 이들의 사회적 역량을 이해하는 것이 매우 중요해지고 있다.

헬름홀츠 뮌헨, 막스플랑크 생물사이버네틱스 연구소, 튀빙겐 대학교 연구진이 참여한 이번 연구는, 대형 언어 모델이 행동 게임 이론 프레임워크에서 사회적 시나리오를 어떻게 수행하는지 체계적으로 평가했다. 이 연구는 세계적 학술지 '네이처 휴먼 비헤이비어(Nature Human Behaviour)'에 게재됐다.

에릭 슐츠 박사가 이끄는 연구팀은 다양한 AI 모델을 협력, 경쟁, 전략적 의사결정을 평가하는 고전적인 게임 이론 시나리오에 참여시켰다. 그 결과, AI의 사회적 능력에 대한 미묘한 양상이 드러났다.

슐츠 박사는 "어떤 경우에는 AI가 오히려 지나치게 합리적으로 보였다"며, "위협이나 이기적인 행동을 즉각적으로 감지하고 보복으로 대응할 수 있었지만, 신뢰, 협력, 타협이라는 더 큰 그림을 보는 데는 어려움을 겪었다"고 설명했다.

연구 결과, LLM은 반복되는 죄수의 딜레마와 같이 자기 이익 보호가 중요한 게임에서는 특히 뛰어난 성과를 보였다. 반면, '성 대결(Battle of the Sexes)'처럼 조정과 상호 타협이 요구되는 게임에서는 최적의 행동을 하지 못했다.

가장 주목할 만한 점은 연구팀이 개발한 '사회적 연쇄 사고(SCoT)' 기법이다. 이 방법은 AI가 의사결정을 내리기 전에 타인의 관점을 고려하도록 유도한다. 이 간단한 개입만으로도 AI의 협동성과 적응력이 크게 향상됐으며, 인간 참가자와 상호작용할 때도 효과가 있었다. 연구의 제1저자인 엘리프 아카타는 "모델이 사회적으로 추론하도록 유도하자, 훨씬 더 인간적인 방식으로 행동하기 시작했다"고 말했다.

이번 연구의 시사점은 게임 이론을 넘어선다. LLM이 의료, 비즈니스, 사회적 환경에 더 깊이 통합됨에 따라, 인간의 사회적 역학을 이해하는 능력이 더욱 중요해질 전망이다. 본 연구는 AI 시스템이 복잡한 사회 환경에서 어떻게 기능할 수 있는지에 대한 통찰을 제공하며, 사회적 지능을 향상시킬 수 있는 실질적인 방법도 함께 제시한다.

Source:

Latest News