menu
close

OpenAI ने Nvidia चिप्स से हटकर Google के TPU का किया उपयोग

OpenAI ने अपने ChatGPT और अन्य उत्पादों को संचालित करने के लिए Google के Tensor Processing Units (TPUs) किराए पर लेने शुरू कर दिए हैं, जो कि AI क्षेत्र की अग्रणी कंपनी द्वारा Nvidia के अलावा किसी अन्य चिप का पहला बड़ा उपयोग है। प्रतिस्पर्धियों के बीच यह चौंकाने वाला सहयोग तब सामने आया है जब OpenAI अपनी कंप्यूटिंग अवसंरचना को Microsoft के डेटा सेंटर्स से आगे बढ़ाने की कोशिश कर रही है। कंपनी को उम्मीद है कि Google के क्लाउड-आधारित TPU, उसकी तेजी से बढ़ती AI सेवाओं के लिए प्रदर्शन बनाए रखते हुए, इंफरेंस लागत को कम करने में मदद करेंगे।
OpenAI ने Nvidia चिप्स से हटकर Google के TPU का किया उपयोग

AI उद्योग में एक महत्वपूर्ण बदलाव के तहत, OpenAI ने अपने ChatGPT और अन्य AI उत्पादों को संचालित करने के लिए Google के Tensor Processing Units (TPUs) का उपयोग शुरू कर दिया है, जैसा कि इस व्यवस्था से परिचित सूत्रों ने बताया है।

यह कदम OpenAI द्वारा अपने इन्फ्रास्ट्रक्चर में पहली बार गंभीर रूप से Nvidia के अलावा किसी अन्य चिप का समावेश दर्शाता है। अब तक, कंपनी दुनिया की सबसे बड़ी Nvidia ग्राफिक्स प्रोसेसिंग यूनिट्स (GPUs) खरीदारों में से एक रही है, जिनका उपयोग वह AI मॉडल्स के प्रशिक्षण और इंफरेंस कंप्यूटिंग—यानी नए डेटा पर मॉडल्स द्वारा भविष्यवाणी करने की प्रक्रिया—दोनों के लिए करती रही है।

दो प्रमुख AI प्रतिस्पर्धियों के बीच यह अप्रत्याशित साझेदारी, OpenAI की अपनी कंप्यूटिंग संसाधनों को Microsoft के Azure क्लाउड प्लेटफॉर्म से आगे विविध बनाने की रणनीतिक कोशिश को दर्शाती है। हालांकि Microsoft अभी भी OpenAI का सबसे बड़ा निवेशक और प्रमुख इन्फ्रास्ट्रक्चर प्रदाता है, हाल के महीनों में दोनों के संबंधों में तनाव के संकेत मिले हैं क्योंकि OpenAI अधिक स्वतंत्रता चाहती है।

Google के लिए यह सौदा एक बड़ी उपलब्धि है क्योंकि वह अपनी इन-हाउस TPUs की बाहरी उपलब्धता का विस्तार कर रहा है, जिन्हें पहले केवल आंतरिक उपयोग के लिए आरक्षित रखा जाता था। Google के TPU चिप्स मशीन लर्निंग कार्यों के लिए विशेष रूप से डिजाइन किए गए हैं और कुछ AI वर्कलोड्स के लिए सामान्य GPUs की तुलना में प्रदर्शन में बढ़त दे सकते हैं। कंपनी पहले ही Apple, Anthropic और Safe Superintelligence जैसी अन्य प्रमुख कंपनियों को भी ग्राहक बना चुकी है—इनमें से दो AI कंपनियां पूर्व OpenAI नेताओं द्वारा स्थापित की गई हैं।

OpenAI को उम्मीद है कि Google Cloud के माध्यम से TPU किराए पर लेने से इंफरेंस कंप्यूटिंग की लागत कम करने में मदद मिलेगी, जो ChatGPT के करोड़ों उपयोगकर्ताओं के साथ और भी महत्वपूर्ण हो गई है। हालांकि, सूत्रों के अनुसार, Google OpenAI को अपनी सबसे शक्तिशाली TPU चिप्स तक पहुंच नहीं दे रहा है, जिससे वह कुछ प्रतिस्पर्धात्मक बढ़त बनाए रखता है।

यह विकास OpenAI की व्यापक अवसंरचना विविधीकरण रणनीति के तहत सामने आया है, जिसमें SoftBank और Oracle के साथ 500 अरब डॉलर का Stargate प्रोजेक्ट और अतिरिक्त कंप्यूटिंग क्षमता के लिए CoreWeave के साथ बहु-अरब डॉलर के सौदे शामिल हैं। कंपनी reportedly अपना पहला इन-हाउस चिप भी विकसित कर रही है ताकि बाहरी हार्डवेयर प्रदाताओं पर निर्भरता कम की जा सके।

जैसे-जैसे AI कंप्यूटिंग की मांगें बढ़ती जा रही हैं और OpenAI की वार्षिक लागत अरबों डॉलर तक पहुंचने का अनुमान है, यह साझेदारी दिखाती है कि AI क्षेत्र में तीव्र प्रतिस्पर्धा के बावजूद, कंपनियां उद्योग को आगे बढ़ाने के लिए आवश्यक विशाल कंप्यूटिंग संसाधनों की पूर्ति हेतु सहयोग करने को तैयार हैं।

Source:

Latest News