تزداد نماذج اللغة الكبيرة مثل GPT-4 اندماجاً في حياتنا اليومية، بدءاً من صياغة رسائل البريد الإلكتروني ووصولاً إلى دعم القرارات في مجال الرعاية الصحية. ومع تزايد انتشار هذه الأنظمة الذكية، يصبح فهم قدراتها الاجتماعية أمراً بالغ الأهمية لتعزيز التعاون الفعّال بين الإنسان والذكاء الاصطناعي.
نشرت مجلة Nature Human Behaviour دراسة رائدة أعدها باحثون من مركز هيلمهولتز ميونيخ، ومعهد ماكس بلانك للسيبرنتيك الحيوي، وجامعة توبنغن، حيث قاموا بتقييم منهجي لأداء نماذج اللغة الكبيرة في سيناريوهات اجتماعية باستخدام أطر نظرية الألعاب السلوكية.
قاد فريق البحث الدكتور إريك شولتز، حيث شاركت عدة نماذج ذكاء اصطناعي في سيناريوهات كلاسيكية من نظرية الألعاب تهدف إلى اختبار التعاون، والمنافسة، واتخاذ القرارات الاستراتيجية. وكشفت النتائج عن صورة دقيقة لقدرات الذكاء الاصطناعي الاجتماعية.
يقول الدكتور شولتز: "في بعض الحالات، بدا الذكاء الاصطناعي عقلانياً أكثر من اللازم لصالحه الشخصي؛ فقد كان يكتشف التهديد أو التصرف الأناني فوراً ويرد بالانتقام، لكنه كان يواجه صعوبة في رؤية الصورة الأكبر المتعلقة بالثقة والتعاون والتسوية".
وأظهرت الدراسة أن نماذج اللغة الكبيرة تؤدي أداءً ممتازاً في الألعاب التي تعتمد على المصلحة الذاتية مثل معضلة السجين المتكررة، حيث يكون الحفاظ على المصلحة الشخصية أمراً محورياً. ومع ذلك، فإن أداءها يكون دون المستوى الأمثل في الألعاب التي تتطلب التنسيق والتسوية المتبادلة، مثل لعبة معركة الجنسين.
ومن أبرز ما توصل إليه الفريق هو تطوير تقنية تُدعى سلسلة التفكير الاجتماعي (SCoT)، والتي تدفع الذكاء الاصطناعي إلى مراعاة وجهات نظر الآخرين قبل اتخاذ القرار. وقد أدى هذا التدخل البسيط إلى تحسين كبير في التعاون والقدرة على التكيف، حتى عند التفاعل مع لاعبين بشريين. وأشارت إليف أكاتا، المؤلفة الأولى للدراسة: "بمجرد أن دفعنا النموذج للتفكير اجتماعياً، بدأ يتصرف بطريقة أقرب إلى البشر بكثير".
وتتجاوز تداعيات هذه النتائج نظرية الألعاب؛ فمع تزايد دمج نماذج اللغة الكبيرة في قطاعات مثل الرعاية الصحية والأعمال والمجتمع، ستصبح قدرتها على فهم الديناميكيات الاجتماعية البشرية أمراً بالغ الأهمية. وتقدم هذه الدراسة رؤى قيّمة حول كيفية عمل أنظمة الذكاء الاصطناعي في بيئات اجتماعية معقدة، بالإضافة إلى أساليب عملية لتعزيز ذكائها الاجتماعي.