AI इंफ्रास्ट्रक्चर के क्षेत्र में एक महत्वपूर्ण बदलाव के तहत, OpenAI ने अपने ChatGPT और अन्य AI उत्पादों को चलाने के लिए Google के विशेष Tensor Processing Units (TPUs) किराए पर लेना शुरू कर दिया है। इस व्यवस्था से परिचित सूत्रों के अनुसार, यह पहली बार है जब OpenAI ने अपने AI वर्कलोड के लिए Nvidia के अलावा किसी अन्य चिप का सार्थक रूप से उपयोग किया है।
OpenAI अब तक दुनिया की सबसे बड़ी Nvidia ग्राफिक्स प्रोसेसिंग यूनिट्स (GPUs) खरीदने वाली कंपनियों में से एक रही है, क्योंकि AI चिप बाजार में Nvidia का दबदबा है। OpenAI को उम्मीद है कि Google Cloud के माध्यम से उपलब्ध TPUs की मदद से वह इनफेरेंस कंप्यूटिंग—यानी AI मॉडल्स द्वारा निर्णय या भविष्यवाणी करने की प्रक्रिया—की लागत को कम कर सकेगी।
यह साझेदारी OpenAI की अपनी कंप्यूटिंग इंफ्रास्ट्रक्चर को विविध बनाने की रणनीति का एक और कदम है। इस साल की शुरुआत में, Microsoft—जो OpenAI का सबसे बड़ा निवेशक और मुख्य क्लाउड प्रदाता है—ने अपनी विशेष व्यवस्था में बदलाव किया था। अब Microsoft के पास OpenAI की नई क्लाउड कंप्यूटिंग क्षमता पर 'राइट ऑफ फर्स्ट रिफ्यूजल' है। इस बदलाव के बाद OpenAI को अन्य साझेदारियों की तलाश करने का मौका मिला, जिसमें Google के साथ यह नई साझेदारी भी शामिल है।
Google के लिए, OpenAI को ग्राहक बनाना यह दिखाता है कि कंपनी ने अपनी इन-हाउस AI तकनीक का उपयोग करके अपने क्लाउड कारोबार को कैसे बढ़ाया है। Google के TPUs, जो पहले केवल आंतरिक उपयोग के लिए थे, कुछ AI वर्कलोड्स के लिए खास फायदे देते हैं—जैसे इनफेरेंस कार्यों में संभावित रूप से बेहतर ऊर्जा दक्षता और लागत प्रभावशीलता, जो GPUs की तुलना में अधिक हो सकती है।
हालांकि, इस सहयोग की भी कुछ सीमाएं हैं। रिपोर्ट्स के मुताबिक, Google अपनी सबसे शक्तिशाली TPUs OpenAI को किराए पर नहीं दे रहा है, जिससे दोनों AI प्रतिद्वंद्वियों के बीच प्रतिस्पर्धात्मक सीमाएं बनी रहती हैं। यह चयनात्मक दृष्टिकोण AI क्षेत्र की जटिलता को दर्शाता है, जहां कंपनियां अक्सर एक-दूसरे के साथ प्रतिस्पर्धा और सहयोग दोनों करती हैं।
यह सौदा ऐसे समय में हुआ है जब AI कंप्यूटिंग संसाधनों के लिए जबरदस्त प्रतिस्पर्धा है और बड़ी टेक कंपनियां विशेष हार्डवेयर में अरबों डॉलर का निवेश कर रही हैं। Google की नवीनतम TPU पीढ़ी, जिसका कोडनेम 'Trillium' है, पिछले वर्जनों की तुलना में काफी बेहतर प्रदर्शन देती है और उन्नत AI मॉडलों की भारी कंप्यूटेशनल मांगों को संभालने के लिए डिजाइन की गई है।