Microsoft अपनी आर्टिफिशियल इंटेलिजेंस रणनीति को व्यापक रूप से विस्तार दे रहा है, जिसमें वह प्रतिस्पर्धी AI मॉडल्स को सीधे अपने Azure क्लाउड प्लेटफ़ॉर्म में ला रहा है। इस सप्ताह सिएटल में आयोजित वार्षिक Build डेवलपर सम्मेलन में, इस टेक दिग्गज ने घोषणा की कि वह Elon Musk की xAI (जिसमें Grok 3 और Grok 3 mini शामिल हैं), Meta Platforms के Llama मॉडल्स, और यूरोपीय AI स्टार्टअप्स Mistral और Black Forest Labs के मॉडल्स को अपने डेटा सेंटर्स में होस्ट करेगा।
यह विस्तार Microsoft की AI रणनीति में एक महत्वपूर्ण बदलाव को दर्शाता है, जो अब तक OpenAI (ChatGPT के निर्माता) में उसके भारी निवेश से जुड़ी रही है। यह घोषणा ऐसे समय में आई है जब OpenAI ने एक सीधा प्रतिस्पर्धी उत्पाद लॉन्च किया है, जिससे दोनों कंपनियों के संबंधों में बदलती गतिशीलता उजागर होती है।
Microsoft AI प्लेटफ़ॉर्म्स की कॉर्पोरेट वाइस प्रेसिडेंट, आशा शर्मा ने कहा, "ऐप बनाने के लिए और सबसे लोकप्रिय मॉडल्स का निर्बाध उपयोग सुनिश्चित करने के लिए सबसे महत्वपूर्ण बात यह है कि Azure OpenAI के साथ आपकी आरक्षित क्षमता अब सबसे लोकप्रिय मॉडल्स पर भी काम करने लगे।"
इन प्रतिस्पर्धी मॉडल्स को अपनी इन्फ्रास्ट्रक्चर में होस्ट करके, Microsoft उनकी उपलब्धता और प्रदर्शन की गारंटी दे सकता है—यह उस दौर में एक बड़ा लाभ है जब लोकप्रिय AI सेवाएं उच्च मांग के समय अक्सर आउटेज का सामना करती हैं। कंपनी का Azure AI Foundry अब 1,900 से अधिक AI मॉडल्स तक पहुंच प्रदान करता है, जिससे डेवलपर्स को अभूतपूर्व विकल्प और लचीलापन मिलता है।
यह रणनीतिक बदलाव Microsoft की उस दृष्टि के अनुरूप है जिसमें व्यवसाय अपनी आंतरिक जरूरतों के लिए कस्टम AI एजेंट्स बना सकते हैं। Azure Foundry सेवा संगठनों को किसी भी AI मॉडल या उनके संयोजन से ऐसे एजेंट्स बनाने की सुविधा देती है। Microsoft के CEO सत्य नडेला ने जोर देकर कहा कि ये नए मॉडल्स Azure क्लाउड ग्राहकों को OpenAI के टूल्स जैसी ही सेवा गारंटी के साथ उपलब्ध होंगे।
यह मल्टी-मॉडल दृष्टिकोण AWS और Google Cloud जैसे क्लाउड प्रतिस्पर्धियों के साथ प्रतिस्पर्धा को तेज करता है, साथ ही Microsoft को तेजी से प्रतिस्पर्धी हो रहे AI क्षेत्र में एक तटस्थ प्लेटफ़ॉर्म प्रदाता के रूप में स्थापित करता है। उद्यमों के लिए, इसका अर्थ है एक ही प्लेटफ़ॉर्म पर विविध AI क्षमताओं तक पहुंच, जिससे कई AI प्रदाताओं का प्रबंधन करने की जटिलता कम होती है और विशिष्ट उपयोग मामलों के लिए सर्वोत्तम मॉडल चुनने की स्वतंत्रता बनी रहती है।