menu
close

गेम थ्योरी परीक्षणों में एआई मॉडल्स ने दिखाए इंसानों जैसे सामाजिक कौशल

शोधकर्ताओं ने पाया है कि बड़े भाषा मॉडल (LLMs) जब गेम थ्योरी के ढांचे में परखे गए, तो उन्होंने जटिल सामाजिक तर्कशक्ति क्षमताएं प्रदर्शित कीं। डॉ. एरिक शुल्ज के नेतृत्व में हुए एक अध्ययन से पता चला कि ये एआई सिस्टम स्वार्थी निर्णय लेने में तो माहिर हैं, लेकिन समन्वय और टीमवर्क वाले कार्यों में इन्हें कठिनाई होती है। शोध में एक नई तकनीक 'सोशल चेन-ऑफ-थॉट' (SCoT) पेश की गई है, जो एआई को दूसरों के दृष्टिकोण पर विचार करने के लिए प्रेरित कर उनके सहयोगी व्यवहार में उल्लेखनीय सुधार लाती है।
गेम थ्योरी परीक्षणों में एआई मॉडल्स ने दिखाए इंसानों जैसे सामाजिक कौशल

GPT-4 जैसे बड़े भाषा मॉडल अब हमारे दैनिक जीवन में तेजी से शामिल हो रहे हैं—चाहे वह ईमेल ड्राफ्ट करना हो या स्वास्थ्य देखभाल संबंधी निर्णयों में सहायता करना। जैसे-जैसे ये एआई सिस्टम आम होते जा रहे हैं, उनके सामाजिक कौशल को समझना मानव-एआई सहयोग के लिए बेहद जरूरी हो गया है।

Helmholtz Munich, Max Planck Institute for Biological Cybernetics और University of Tübingen के शोधकर्ताओं द्वारा Nature Human Behaviour में प्रकाशित एक महत्वपूर्ण अध्ययन में यह व्यवस्थित रूप से आंका गया कि LLMs सामाजिक परिदृश्यों में व्यवहारिक गेम थ्योरी के ढांचे में कैसे प्रदर्शन करते हैं।

डॉ. एरिक शुल्ज के नेतृत्व में शोध टीम ने विभिन्न एआई मॉडलों को क्लासिक गेम थ्योरी परिदृश्यों में शामिल किया, जिनका उद्देश्य सहयोग, प्रतिस्पर्धा और रणनीतिक निर्णय लेने की क्षमता को परखना था। उनके निष्कर्षों से एआई के सामाजिक कौशल की एक जटिल तस्वीर सामने आई।

"कुछ मामलों में एआई इतनी तर्कसंगत दिखी कि वह खुद के लिए नुकसानदायक हो गई," डॉ. शुल्ज बताते हैं। "वह किसी खतरे या स्वार्थी चाल को तुरंत पहचान लेती और जवाब में प्रतिशोध करती, लेकिन विश्वास, सहयोग और समझौते की बड़ी तस्वीर को समझने में उसे कठिनाई होती थी।"

अध्ययन में पाया गया कि LLMs स्वार्थ आधारित खेलों, जैसे कि इटरेटेड प्रिजनर्स डिलेमा, में बेहतरीन प्रदर्शन करते हैं, जहां अपने हितों की रक्षा सबसे महत्वपूर्ण होती है। हालांकि, जब समन्वय और आपसी समझौते की जरूरत होती है—जैसे कि 'बैटल ऑफ द सेक्सेस' जैसे खेलों में—तो उनका प्रदर्शन अपेक्षाकृत कमजोर रहता है।

सबसे उल्लेखनीय बात यह रही कि टीम ने 'सोशल चेन-ऑफ-थॉट' (SCoT) नामक एक तकनीक विकसित की, जो एआई को निर्णय लेने से पहले दूसरों के दृष्टिकोण पर विचार करने के लिए प्रेरित करती है। यह साधारण हस्तक्षेप न केवल सहयोग और अनुकूलनशीलता में उल्लेखनीय सुधार लाया, बल्कि मानव खिलाड़ियों के साथ बातचीत के दौरान भी एआई के व्यवहार को अधिक मानवीय बना दिया। अध्ययन की प्रथम लेखिका एलिफ अकाता ने कहा, "जैसे ही हमने मॉडल को सामाजिक रूप से सोचने के लिए प्रेरित किया, उसका व्यवहार कहीं अधिक इंसानों जैसा लगने लगा।"

इस शोध के नतीजों का दायरा गेम थ्योरी से कहीं आगे तक जाता है। जैसे-जैसे LLMs स्वास्थ्य, व्यापार और सामाजिक क्षेत्रों में एकीकृत होते जाएंगे, उनका मानवीय सामाजिक गतिशीलता को समझना अत्यंत महत्वपूर्ण होगा। यह शोध न केवल जटिल सामाजिक परिवेश में एआई के काम करने के तरीके को समझने में मदद करता है, बल्कि उनके सामाजिक बुद्धिमत्ता को बढ़ाने के व्यावहारिक उपाय भी प्रस्तुत करता है।

Source:

Latest News