menu
close

AIモデル、ゲーム理論テストで人間のような社会的スキルを示す

研究者たちは、大規模言語モデル(LLM)がゲーム理論の枠組みでテストされた際、高度な社会的推論能力を示すことを発見した。エリック・シュルツ博士が主導した研究によると、これらのAIシステムは自己利益を重視した意思決定には優れている一方、協調やチームワークを要する課題には苦戦することが明らかになった。研究チームは、AIが他者の視点を考慮するよう促すことで協調行動を大幅に向上させる「ソーシャル・チェーン・オブ・ソート(SCoT)」という有望な手法を導入している。
AIモデル、ゲーム理論テストで人間のような社会的スキルを示す

GPT-4のような大規模言語モデルは、メールの作成から医療判断の支援まで、私たちの日常生活にますます浸透している。こうしたAIシステムの社会的能力を理解することは、人間とAIの効果的な協働のために極めて重要だ。

ヘルムホルツ・ミュンヘン、マックス・プランク生物サイバネティクス研究所、テュービンゲン大学の研究者らによる画期的な研究が、行動ゲーム理論の枠組みを用いてLLMが社会的状況でどのように振る舞うかを体系的に評価した。この研究は『Nature Human Behaviour』誌に掲載されている。

エリック・シュルツ博士率いる研究チームは、複数のAIモデルに協力、競争、戦略的意思決定を試す古典的なゲーム理論シナリオに取り組ませた。その結果、AIの社会的能力には微妙な側面があることが明らかになった。

「場合によっては、AIは自分自身にとってあまりにも合理的すぎるように見えました」とシュルツ博士は説明する。「脅威や利己的な行動を瞬時に見抜き、報復で応じることはできても、信頼や協力、妥協といった大局的な視点を持つのは苦手でした。」

研究では、LLMは繰り返し囚人のジレンマのような自己利益を守ることが最優先となるゲームでは特に優れた成績を示した。一方で、「バトル・オブ・ザ・セックス」のような協調や相互の妥協が求められるゲームでは最適な行動ができない傾向が見られた。

最も注目すべきは、研究チームが開発した「ソーシャル・チェーン・オブ・ソート(SCoT)」という手法だ。これは、AIが意思決定の前に他者の視点を考慮するよう促すもので、このシンプルな介入によって、AIの協調性や適応力が大幅に向上した。人間のプレイヤーと対戦した場合でもその効果は顕著だった。「モデルに社会的な推論を促すと、より人間らしい行動をとるようになりました」と、論文の第一著者であるエリフ・アカタ氏は述べている。

この研究の示唆はゲーム理論の枠を超えて広がる。LLMが医療、ビジネス、社会的な場面にさらに統合されていく中で、人間の社会的ダイナミクスを理解する能力は不可欠となるだろう。本研究は、AIシステムが複雑な社会環境でどのように機能するかについて貴重な洞察を与えるとともに、社会的知性を高めるための実践的な手法を提示している。

Source:

Latest News