Sa isang hakbang na nagpapakita ng patuloy na pagbabago sa sektor ng artificial intelligence, nakuha ng OpenAI ang isang makasaysayang kasunduan sa cloud services kasama ang Google, isa sa mga pangunahing kakumpitensya nito sa larangan ng AI.
Ang kasunduang ito, na pormal na nilagdaan noong Mayo matapos ang ilang buwang negosasyon, ay magbibigay sa OpenAI ng karagdagang computing capacity upang sanayin at patakbuhin ang mga AI model nito na lalong nangangailangan ng malalaking resources. Kinakatawan ng partnership na ito ang pinakabagong pagsisikap ng OpenAI na palawakin ang imprastraktura nito lampas sa Microsoft Azure, na naging eksklusibong cloud provider ng kumpanya hanggang Enero 2025.
Dumating ang kasunduan sa isang kritikal na panahon para sa OpenAI, na kamakailan lamang ay inanunsyo na ang taunang kita nito ay umabot na sa $10 bilyon noong Hunyo 2025, doble mula sa $5.5 bilyon noong Disyembre 2024. Sa 500 milyong lingguhang aktibong user at 3 milyong nagbabayad na business customer, nahaharap ang kumpanya sa matinding pressure na palakihin pa ang imprastraktura upang tugunan ang lumalaking demand.
Para sa Google Cloud, ang pagkakaroon ng OpenAI bilang kliyente ay isang malaking tagumpay sa kabila ng tensyon sa pagitan ng dalawang kumpanya. Nanatiling isa ang ChatGPT sa pinakamalaking hamon sa dominasyon ng Google sa search, habang ang Gemini AI ng Google ay direktang kakumpitensya ng mga produkto ng OpenAI. Gayunpaman, mas pinili ng dalawang kumpanya ang praktikal na benepisyo ng negosyo kaysa sa kompetisyon.
Ang partnership na ito ay kasunod ng iba pang malalaking inisyatiba ng OpenAI sa imprastraktura, kabilang ang $500 bilyong Stargate project na inanunsyo noong Enero 2025 kasama ang SoftBank at Oracle. Layunin ng proyektong ito na magtayo ng malalaking AI data center sa buong Estados Unidos, na may paunang puhunan na $100 bilyon.
Ayon sa mga analyst ng industriya, nagpapahiwatig ang kasunduang ito ng mas malawak na trend kung saan ang mga AI company ay gumagamit ng multi-cloud strategy upang matiyak ang sapat na computing resources at maiwasan ang labis na pagdepende sa iisang provider. Habang lalong lumalaki ang pangangailangan sa resources para sa AI model training, kahit ang matitinding magkalaban ay napipilitang magbahagi ng imprastraktura upang matugunan ang napakalaking pangangailangan ng makabagong AI development.