マイクロソフトは、競合するAIモデルを自社のAzureクラウドプラットフォームに直接導入することで、人工知能戦略を大幅に拡大している。今週シアトルで開催された年次開発者会議「Build」において、同社はイーロン・マスク率いるxAI(Grok 3およびGrok 3 miniを含む)、Meta PlatformsのLlamaモデル、さらに欧州のAIスタートアップであるMistralおよびBlack Forest LabsのAIモデルを自社データセンターでホストすることを発表した。
この拡大は、ChatGPTの開発元であるOpenAIへの多額の投資と密接に結びついてきたマイクロソフトのAI戦略における大きな進化を示している。この発表は、OpenAIが直接競合する製品を発表した直後に行われ、両社の関係性における変化を浮き彫りにしている。
「アプリを構築し、最も人気のあるモデルをシームレスに利用できるようにするために最も重要なのは、Azure OpenAIで確保しているリザーブドキャパシティが、他の主要モデルにも対応することです」と、マイクロソフトAIプラットフォーム担当コーポレートバイスプレジデントのAsha Sharma氏は述べている。
これらの競合モデルを自社インフラでホストすることで、マイクロソフトはその可用性とパフォーマンスを保証できる。これは、人気AIサービスが高需要時にしばしばダウンする現代において大きな利点となる。同社のAzure AI Foundryは現在、1,900以上のAIモデルへのアクセスを提供しており、開発者に前例のない選択肢と柔軟性をもたらしている。
この戦略的転換は、企業がさまざまな社内業務向けにカスタムAIエージェントを構築するというマイクロソフトのビジョンと一致している。Azure Foundryサービスは、組織が任意のAIモデルやその組み合わせを使ってエージェントを構築できるようにするものだ。サティア・ナデラCEOは、新たに追加されるこれらのモデルもOpenAIのツールと同様のサービス保証でAzureクラウド顧客に提供されると強調した。
このマルチモデル戦略は、クラウド競合のAWSやGoogle Cloudとの競争を激化させるとともに、マイクロソフトをAI分野で中立的なプラットフォームプロバイダーとして位置づける。企業にとっては、単一のプラットフォーム上で多様なAI機能にアクセスできるため、複数のAIプロバイダーを管理する複雑さが軽減され、用途ごとに最適なモデルを選択する自由も維持できる。