Sa isang mahalagang pagbabago para sa industriya ng AI, nagsimula nang gumamit ang OpenAI ng Tensor Processing Units (TPUs) ng Google upang paganahin ang ChatGPT at iba pang AI products nito, ayon sa mga impormanteng pamilyar sa kasunduan.
Ito ang unang pagkakataon na tunay na isinama ng OpenAI ang chips na hindi mula sa Nvidia sa kanilang imprastraktura. Sa nakaraan, isa ang OpenAI sa pinakamalalaking mamimili ng graphics processing units (GPUs) ng Nvidia sa buong mundo, na ginagamit nila para sa parehong training ng AI models at inference computing—ang proseso kung saan gumagawa ng prediksyon ang mga modelo batay sa bagong impormasyon.
Ang nakakagulat na partnership na ito sa pagitan ng dalawang pangunahing magkaribal sa AI ay nagpapakita ng estratehikong pagsisikap ng OpenAI na palawakin ang kanilang computing resources lampas sa Azure cloud platform ng Microsoft. Bagama't nananatiling pinakamalaking investor at pangunahing tagapagbigay ng imprastraktura ang Microsoft, nagkaroon ng tensyon sa kanilang relasyon nitong mga nakaraang buwan habang hinahangad ng OpenAI ang mas malaking kalayaan.
Para sa Google, malaking tagumpay ang kasunduang ito habang pinalalawak nila ang panlabas na paggamit ng kanilang sariling TPUs, na dati ay nakalaan lamang para sa internal na gamit. Ang TPU chips ng Google ay custom-designed para sa machine learning tasks at maaaring magbigay ng performance advantage para sa ilang AI workloads kumpara sa general-purpose GPUs. Nakakuha na rin ang kumpanya ng iba pang malalaking kliyente tulad ng Apple, Anthropic, at Safe Superintelligence—dalawang AI companies na itinatag ng dating mga lider ng OpenAI.
Umaasa ang OpenAI na makakatulong ang pag-upa ng TPUs sa pamamagitan ng Google Cloud upang mapababa ang gastos ng inference computing, na lalong naging mahalaga habang lumalaki ang user base ng ChatGPT sa daan-daang milyong katao. Gayunpaman, ayon sa mga source, hindi binibigyan ng Google ang OpenAI ng access sa pinaka-makapangyarihang TPU chips nito, upang mapanatili ang ilang competitive advantage.
Nangyayari ang pag-unlad na ito kasabay ng mas malawak na estratehiya ng OpenAI sa pag-diversify ng imprastraktura, kabilang ang $500 bilyong Stargate project kasama ang SoftBank at Oracle, at multi-bilyong dolyar na kasunduan sa CoreWeave para sa karagdagang computing capacity. Ulat din na gumagawa na ang kumpanya ng sarili nitong chip upang mabawasan ang pagdepende sa mga panlabas na hardware provider.
Habang patuloy na tumataas ang pangangailangan para sa AI computing, at tinatayang aabot sa bilyon-bilyong dolyar ang taunang gastos ng OpenAI, ipinapakita ng partnership na ito kung paanong kahit ang matitinding magkaribal sa AI sector ay handang magtulungan upang matugunan ang napakalaking computing requirements na nagtutulak sa industriya pasulong.