Microsoft a adăugat oficial familia de modele AI Grok 3 de la xAI, compania lui Elon Musk, pe platforma Azure AI Foundry, marcând o extindere semnificativă a ecosistemului său de modele AI dincolo de parteneriatul principal cu OpenAI.
Anunțată la conferința Microsoft Build 2025 din 19 mai, integrarea aduce atât modelele Grok 3, cât și Grok 3 mini pe platforma cloud a Microsoft. Aceste modele vor fi găzduite în centrele de date proprii ale Microsoft și vor fi facturate direct de companie, asigurând respectarea acelorași acorduri de nivel de serviciu pe care clienții Azure le așteaptă de la orice produs Microsoft.
Versiunile Grok găzduite pe Azure sunt mai strict controlate decât cele disponibile pe X (fostul Twitter), oferind capabilități îmbunătățite de integrare a datelor, personalizare și guvernanță, dincolo de ceea ce oferă în prezent API-ul independent xAI.
„Aducem modelele Grok 3 și Grok 3 mini de la xAI în ecosistemul nostru, găzduite și facturate direct de Microsoft”, a declarat Frank Shaw, Chief Communications Officer la Microsoft. „Dezvoltatorii pot alege acum dintre peste 1.900 de modele AI găzduite de parteneri sau de Microsoft, gestionând în același timp integrarea sigură a datelor, personalizarea modelelor și guvernanța la nivel enterprise.”
Această mișcare face parte din strategia mai amplă a Microsoft de a diversifica oferta de modele AI. Pe lângă modelele Grok de la xAI, Microsoft a anunțat că va oferi și modelele Llama de la Meta, precum și soluții AI de la startup-uri europene precum Mistral și Black Forest Labs prin serviciile sale cloud.
Integrarea are loc în ciuda tensiunilor legale continue dintre Elon Musk și OpenAI, companie în care Microsoft a investit masiv. Musk dă în prezent în judecată OpenAI, companie pe care a cofondat-o, dar din care a plecat ulterior, în timp ce OpenAI a intentat un contraproces acuzându-l pe Musk de concurență neloială și hărțuire.
Pentru Microsoft, această abordare multi-model reprezintă o schimbare strategică menită să reducă dependența de un singur furnizor AI, oferind în același timp clienților o gamă mai largă de opțiuni pentru aplicațiile lor AI.