menu
close

OpenAI ने बढ़ती AI इनफरेंस लागत से निपटने के लिए Google TPU का परीक्षण शुरू किया

OpenAI ने AI इनफरेंस की बढ़ती लागत को नियंत्रित करने के लिए Google के Tensor Processing Units (TPUs) का परीक्षण शुरू किया है, जो अब उसके कंप्यूट बजट का 50% से अधिक हिस्सा खर्च कर रही है। हालांकि यह बड़े पैमाने पर तैनाती का संकेत नहीं है, लेकिन यह रणनीतिक कदम OpenAI द्वारा गैर-NVIDIA हार्डवेयर के पहले महत्वपूर्ण उपयोग को दर्शाता है और Microsoft के इन्फ्रास्ट्रक्चर पर विशेष निर्भरता से हटने का संकेत देता है। यह खोज NVIDIA के प्रभुत्व को चुनौती देकर और प्रमुख टेक प्रदाताओं के बीच नई प्रतिस्पर्धा पैदा कर AI हार्डवेयर परिदृश्य को बदल सकती है।
OpenAI ने बढ़ती AI इनफरेंस लागत से निपटने के लिए Google TPU का परीक्षण शुरू किया

OpenAI, जो दुनिया के सबसे बड़े NVIDIA ग्राफिक्स प्रोसेसिंग यूनिट्स (GPUs) उपभोक्ताओं में से एक है, ने अपने AI सिस्टम्स, जिसमें ChatGPT भी शामिल है, को चलाने के लिए Google के Tensor Processing Units (TPUs) का परीक्षण शुरू किया है। यह कदम ऐसे समय में उठाया गया है जब कंपनी को बढ़ते कंप्यूटेशनल खर्चों का सामना करना पड़ रहा है और वह अपने बढ़ते AI संचालन के लिए अधिक किफायती समाधान तलाश रही है।

उद्योग विश्लेषकों के अनुसार, इनफरेंस—वह प्रक्रिया जिसमें AI मॉडल अपने प्रशिक्षित ज्ञान का उपयोग कर भविष्यवाणी या निर्णय लेते हैं—अब OpenAI के कंप्यूट बजट का 50% से अधिक हिस्सा खर्च कर रही है। TPUs, विशेष रूप से पुराने जेनरेशन वाले, NVIDIA GPUs की तुलना में प्रति इनफरेंस लागत में काफी सस्ते हैं, जिससे वे एक आकर्षक विकल्प बन जाते हैं, भले ही वे नवीनतम NVIDIA चिप्स की अधिकतम प्रदर्शन क्षमता न दे पाएं।

Forrester के वाइस प्रेसिडेंट और प्रमुख विश्लेषक चार्ली डाई ने समझाया, "हालांकि पुराने TPUs में नवीनतम Nvidia चिप्स जैसी अधिकतम प्रदर्शन क्षमता नहीं है, लेकिन उनकी समर्पित आर्किटेक्चर ऊर्जा की बर्बादी और निष्क्रिय संसाधनों को कम करती है, जिससे वे बड़े पैमाने पर अधिक किफायती हो जाते हैं।" उद्योग विश्लेषण से पता चलता है कि Google को AI कंप्यूट पावर प्राप्त करने में उच्च-स्तरीय NVIDIA GPUs की तुलना में लगभग 20% लागत आती है, जिससे 4-6 गुना लागत दक्षता का लाभ मिलता है।

हालांकि, OpenAI ने स्पष्ट किया है कि उसके पास फिलहाल बड़े पैमाने पर TPU तैनाती की कोई योजना नहीं है। एक प्रवक्ता ने Reuters को बताया कि कंपनी "Google के कुछ TPUs के साथ शुरुआती परीक्षण कर रही है" लेकिन फिलहाल "इन्हें बड़े पैमाने पर तैनात करने की कोई योजना नहीं है।" यह सतर्क रुख इन्फ्रास्ट्रक्चर के संक्रमण में शामिल महत्वपूर्ण तकनीकी चुनौतियों को दर्शाता है, क्योंकि OpenAI का सॉफ्टवेयर स्टैक मुख्य रूप से GPUs के लिए अनुकूलित किया गया है।

लागत के अलावा, यह कदम OpenAI के कंप्यूट स्रोतों के रणनीतिक विविधीकरण को भी दर्शाता है, जो अब तक Microsoft के विशेष डेटा सेंटर इन्फ्रास्ट्रक्चर पर निर्भर था (जनवरी 2025 तक)। कंपनी पहले ही अपने Stargate इन्फ्रास्ट्रक्चर प्रोग्राम के तहत Oracle और CoreWeave के साथ साझेदारी कर चुकी है और अपना खुद का कस्टम AI प्रोसेसर विकसित कर रही है, जिसके इस साल के अंत तक टेप-आउट माइलस्टोन तक पहुंचने की उम्मीद है।

AI हार्डवेयर बाजार के लिए इसके प्रभाव महत्वपूर्ण हो सकते हैं। यदि सफल रहा, तो OpenAI द्वारा TPUs को अपनाना उच्च-प्रदर्शन AI कंप्यूटिंग में NVIDIA के लगभग एकाधिकार के विकल्प के रूप में Google के हार्डवेयर को मान्यता दिला सकता है। इससे NVIDIA पर नवाचार या मूल्य समायोजन का दबाव बन सकता है, वहीं Google, Microsoft और Amazon जैसे क्लाउड प्रदाताओं के बीच AI इन्फ्रास्ट्रक्चर में वर्चस्व के लिए नई प्रतिस्पर्धा भी पैदा हो सकती है।

Source: Computerworld

Latest News