menu
close

MIT का AI कोच बढ़ाता है भाषा मॉडल्स की समस्या-सुलझाने की क्षमता

MIT के शोधकर्ताओं ने CodeSteer नामक एक बुद्धिमान सहायक विकसित किया है, जो बड़े भाषा मॉडल्स को जटिल प्रश्नों के सही उत्तर तक पहुँचने के लिए टेक्स्ट और कोड जेनरेशन के बीच स्विच करने का मार्गदर्शन करता है। इस प्रणाली ने गणितीय समस्याओं और स्थानिक तर्क जैसे प्रतीकात्मक कार्यों में LLM की सटीकता को 30% से अधिक बढ़ा दिया, जिससे कम उन्नत मॉडल्स भी अधिक उन्नत मॉडल्स से बेहतर प्रदर्शन कर सके। यह उपलब्धि रोबोटिक्स, आपूर्ति श्रृंखला प्रबंधन और अन्य क्षेत्रों में सटीक गणनात्मक तर्क की आवश्यकता वाले जटिल कार्यों के लिए AI की समस्या-सुलझाने की क्षमताओं में महत्वपूर्ण सुधार ला सकती है।
MIT का AI कोच बढ़ाता है भाषा मॉडल्स की समस्या-सुलझाने की क्षमता

बड़े भाषा मॉडल्स (LLMs) संदर्भ को समझने और तार्किक उत्तर देने में माहिर होते हैं, लेकिन वे अक्सर उन गणनात्मक कार्यों में संघर्ष करते हैं जिन्हें कोड के माध्यम से बेहतर हल किया जा सकता है, जैसे दशमलव संख्याओं की तुलना करना या अनुकूलन समस्याएँ हल करना।

इस सीमा को दूर करने के लिए, MIT के शोधकर्ताओं ने CodeSteer विकसित किया है, जो एक स्मार्ट सहायक के रूप में बड़े भाषा मॉडल्स का कोच बनता है और उन्हें टेक्स्ट और कोड जेनरेशन के बीच स्विच करने का मार्गदर्शन करता है, जब तक कि वे सही उत्तर न दे दें।

"हम इंसानों से प्रेरित हुए। खेलों में, एक ट्रेनर टीम के स्टार एथलीट से बेहतर नहीं हो सकता, लेकिन फिर भी वह एथलीट को मार्गदर्शन देने के लिए उपयोगी सुझाव दे सकता है। यही steering तरीका LLMs के लिए भी काम करता है," हार्वर्ड और MIT के ग्रेजुएट छात्र योंगचाओ चेन बताते हैं, जिन्होंने इस प्रोजेक्ट पर काम किया।

CodeSteer, जो स्वयं Llama-3-8B मॉडल पर फाइन-ट्यून किया गया एक छोटा LLM है, किसी प्रश्न की समीक्षा करता है और यह निर्धारित करता है कि समस्या को हल करने के लिए टेक्स्ट या कोड अधिक उपयुक्त होगा। इसके बाद यह बड़े LLM के लिए प्रॉम्प्ट्स तैयार करता है, जिससे वह उपयुक्त विधि का उपयोग करे। यदि उत्तर सही नहीं होता, तो CodeSteer LLM को अलग-अलग तरीकों से प्रयास करने के लिए प्रेरित करता रहता है, जब तक कि सही समाधान न मिल जाए।

शोधकर्ताओं ने पाया कि GPT-4o को CodeSteer के साथ जोड़ने पर प्रतीकात्मक कार्यों में उसकी सटीकता 30% से अधिक बढ़ गई, जिससे उसका औसत प्रदर्शन स्कोर 53.3 से बढ़कर 86.4 (37 कार्यों में) हो गया। इस सुधार ने इसे OpenAI के o1 (82.7) और DeepSeek R1 (76.8) जैसे अधिक उन्नत मॉडल्स से भी बेहतर बना दिया। उल्लेखनीय है कि CodeSteer ने अन्य मॉडल्स जैसे Claude, Mistral और GPT-3.5 पर भी औसतन 41.8% प्रदर्शन वृद्धि दिखाई, जिससे इसकी सामान्यीकरण क्षमता सिद्ध होती है।

CodeSteer के विकास और परीक्षण के लिए शोधकर्ताओं ने SymBench नामक एक व्यापक बेंचमार्क बनाया, जिसमें 37 प्रतीकात्मक कार्य हैं जिनकी जटिलता समायोजित की जा सकती है। इन कार्यों में गणित, स्थानिक तर्क, लॉजिक, क्रम तर्क और अनुकूलन समस्याएँ शामिल हैं।

यह उपलब्धि AI की समस्या-सुलझाने की क्षमताओं में महत्वपूर्ण सुधार ला सकती है, खासकर उन जटिल कार्यों के लिए जिन्हें केवल टेक्स्टुअल तर्क से हल करना कठिन है, जैसे अनिश्चित वातावरण में रोबोट्स के लिए रास्ते बनाना या अंतरराष्ट्रीय आपूर्ति श्रृंखलाओं में शिपमेंट शेड्यूल करना।

"किसी LLM में स्मार्ट तरीके से कोडिंग का उपयोग जोड़कर, हम एक पहले से ही मजबूत मॉडल की कार्यक्षमता को और भी बढ़ा सकते हैं," चेन कहते हैं। शोधकर्ता अब CodeSteer की प्रक्रिया को तेज और सरल बनाने तथा एकीकृत मॉडल को फाइन-ट्यून करने की दिशा में काम कर रहे हैं, जो बिना किसी अलग सहायक के टेक्स्टुअल तर्क और कोड जेनरेशन के बीच स्विच कर सके।

Source: Techxplore

Latest News