A Microsoft adicionou oficialmente a família de modelos de IA Grok 3, da xAI de Elon Musk, à sua plataforma Azure AI Foundry, marcando uma expansão significativa do seu ecossistema de modelos de IA para além da parceria principal com a OpenAI.
O anúncio foi feito durante a conferência Microsoft Build 2025, em 19 de maio, e traz tanto os modelos Grok 3 quanto Grok 3 mini para a plataforma de nuvem da Microsoft. Esses modelos serão hospedados nos próprios data centers da Microsoft e faturados diretamente pela empresa, garantindo que atendam aos mesmos acordos de nível de serviço que os clientes Azure esperam de qualquer produto Microsoft.
As versões do Grok hospedadas no Azure são mais controladas do que aquelas disponíveis no X (antigo Twitter), oferecendo recursos aprimorados de integração de dados, personalização e governança, indo além do que a API independente da xAI atualmente oferece.
"Estamos trazendo os modelos Grok 3 e Grok 3 mini da xAI para nosso ecossistema, hospedados e faturados diretamente pela Microsoft", afirmou Frank Shaw, diretor de comunicações da Microsoft. "Agora, os desenvolvedores podem escolher entre mais de 1.900 modelos de IA hospedados por parceiros e pela própria Microsoft, enquanto gerenciam integração segura de dados, personalização de modelos e governança em nível empresarial."
Essa iniciativa faz parte da estratégia mais ampla da Microsoft de diversificar sua oferta de modelos de IA. Além dos modelos Grok da xAI, a Microsoft também anunciou que irá disponibilizar os modelos Llama da Meta e soluções de IA de startups europeias como Mistral e Black Forest Labs em seus serviços de nuvem.
A integração ocorre apesar das tensões jurídicas em andamento entre Elon Musk e a OpenAI, empresa na qual a Microsoft investiu pesadamente. Musk atualmente processa a OpenAI, empresa que cofundou, mas da qual se afastou posteriormente, enquanto a OpenAI abriu um processo contra Musk, acusando-o de concorrência desleal e assédio.
Para a Microsoft, essa abordagem multimodelo representa uma mudança estratégica para reduzir a dependência de um único fornecedor de IA, ao mesmo tempo em que oferece aos clientes uma gama mais ampla de opções para suas aplicações de inteligência artificial.