Microsoft суттєво розширює свою стратегію штучного інтелекту, інтегруючи конкурентні AI-моделі безпосередньо у свою хмарну платформу Azure. На щорічній конференції розробників Build у Сіетлі цього тижня технологічний гігант оголосив, що розміщуватиме AI-моделі від xAI Ілона Маска (зокрема Grok 3 та Grok 3 mini), Llama від Meta Platforms, а також європейських стартапів Mistral і Black Forest Labs у власних дата-центрах.
Це розширення знаменує собою суттєву еволюцію підходу Microsoft до AI, який донедавна був тісно пов’язаний із значними інвестиціями в OpenAI, творця ChatGPT. Оголошення з’явилося лише за кілька днів після того, як OpenAI представила продукт, що напряму конкурує з Microsoft, що підкреслює зміну динаміки у їхніх відносинах.
«Одним із найважливіших аспектів створення застосунків і безшовного використання найпопулярніших моделей є забезпечення того, щоб зарезервовані потужності Azure OpenAI почали працювати з найпопулярнішими моделями», — зазначила Аша Шарма, корпоративна віцепрезидентка з продуктів AI-платформ Microsoft.
Розміщуючи ці конкурентні моделі у власній інфраструктурі, Microsoft може гарантувати їхню доступність і продуктивність — це суттєва перевага в епоху, коли популярні AI-сервіси часто стикаються з перебоями через високий попит. Тепер Azure AI Foundry пропонує доступ до понад 1 900 AI-моделей, надаючи розробникам безпрецедентний вибір і гнучкість.
Ця стратегічна зміна відповідає баченню Microsoft щодо створення бізнесом власних AI-агентів для різноманітних внутрішніх завдань. Сервіс Azure Foundry дозволяє організаціям створювати таких агентів, використовуючи будь-які AI-моделі або їх комбінації на власний розсуд. Генеральний директор Microsoft Сатья Наделла підкреслив, що нові моделі будуть доступні клієнтам Azure із тими ж гарантіями сервісу, що й інструменти OpenAI.
Багатомодельний підхід посилює конкуренцію з хмарними гігантами AWS і Google Cloud, водночас позиціонуючи Microsoft як нейтрального постачальника платформ у дедалі конкурентнішому AI-середовищі. Для підприємств це означає доступ до різноманітних AI-можливостей на одній платформі, зменшуючи складність керування кількома AI-провайдерами та зберігаючи свободу вибору найкращих моделей для конкретних завдань.