menu
close

Model AI Menunjukkan Kemahiran Sosial Seperti Manusia dalam Ujian Teori Permainan

Penyelidik telah mendapati bahawa model bahasa besar (LLM) mempamerkan keupayaan penaakulan sosial yang canggih apabila diuji dalam kerangka teori permainan. Kajian yang diketuai oleh Dr. Eric Schulz mendedahkan bahawa walaupun sistem AI ini cemerlang dalam membuat keputusan berasaskan kepentingan diri, mereka menghadapi kesukaran dalam tugasan koordinasi dan kerja berpasukan. Penyelidikan ini memperkenalkan teknik baharu yang menjanjikan, iaitu Social Chain-of-Thought (SCoT), yang meningkatkan tingkah laku koperatif AI dengan mendorong model untuk mempertimbangkan perspektif pihak lain.
Model AI Menunjukkan Kemahiran Sosial Seperti Manusia dalam Ujian Teori Permainan

Model bahasa besar seperti GPT-4 semakin banyak digunakan dalam kehidupan seharian kita, daripada merangka e-mel hinggalah menyokong keputusan dalam bidang penjagaan kesihatan. Apabila sistem AI ini menjadi semakin meluas, memahami keupayaan sosial mereka menjadi penting untuk kerjasama manusia-AI yang berkesan.

Satu kajian terobosan yang diterbitkan dalam Nature Human Behaviour oleh penyelidik dari Helmholtz Munich, Max Planck Institute for Biological Cybernetics, dan University of Tübingen telah menilai secara sistematik bagaimana prestasi LLM dalam situasi sosial menggunakan kerangka teori permainan tingkah laku.

Pasukan penyelidik yang diketuai oleh Dr. Eric Schulz telah melibatkan pelbagai model AI dalam senario teori permainan klasik yang direka untuk menguji kerjasama, persaingan, dan pembuatan keputusan strategik. Penemuan mereka mendedahkan gambaran yang lebih terperinci mengenai keupayaan sosial AI.

"Dalam beberapa kes, AI kelihatan terlalu rasional untuk kebaikannya sendiri," jelas Dr. Schulz. "Ia dapat mengesan ancaman atau tindakan mementingkan diri dengan pantas dan bertindak balas dengan membalas, tetapi ia sukar untuk melihat gambaran lebih besar tentang kepercayaan, kerjasama, dan kompromi."

Kajian tersebut mendapati bahawa LLM sangat cemerlang dalam permainan berasaskan kepentingan diri seperti Prisoner's Dilemma berulang, di mana melindungi kepentingan sendiri adalah keutamaan. Namun, mereka berkelakuan kurang optimum dalam permainan yang memerlukan koordinasi dan kompromi bersama, seperti Battle of the Sexes.

Yang paling memberangsangkan ialah pembangunan teknik yang dinamakan Social Chain-of-Thought (SCoT), yang mendorong AI untuk mempertimbangkan perspektif pihak lain sebelum membuat keputusan. Intervensi mudah ini telah meningkatkan kerjasama dan kebolehsuaian AI dengan ketara, malah apabila berinteraksi dengan pemain manusia. "Apabila kami menggalakkan model untuk berfikir secara sosial, ia mula bertindak dengan cara yang jauh lebih menyerupai manusia," kata Elif Akata, penulis utama kajian tersebut.

Implikasinya melangkaui bidang teori permainan. Apabila LLM semakin diintegrasikan ke dalam bidang penjagaan kesihatan, perniagaan dan persekitaran sosial, keupayaan mereka untuk memahami dinamik sosial manusia akan menjadi sangat kritikal. Penyelidikan ini memberikan pandangan berharga tentang bagaimana sistem AI mungkin berfungsi dalam persekitaran sosial yang kompleks dan menawarkan kaedah praktikal untuk meningkatkan kecerdasan sosial mereka.

Source:

Latest News