menu
close

OpenAI, Gumamit ng TPUs ng Google sa Estratehikong Paglipat Mula Nvidia

Sinimulan na ng OpenAI ang paggamit ng Tensor Processing Units (TPUs) ng Google upang paganahin ang ChatGPT at iba pang produkto nito, na siyang unang makabuluhang paggamit ng mga chip na hindi mula sa Nvidia. Ang pakikipag-ugnayang ito ay kasunod ng naunang hakbang ng OpenAI na magpalawak lampas sa Microsoft Azure cloud services at itinuturing na malaking tagumpay para sa Google Cloud. Tinugunan ng kolaborasyong ito ang lumalaking pangangailangan ng OpenAI sa computational power habang ipinapakita rin ang tagumpay ng Google sa komersyalisasyon ng kanilang specialized AI hardware.
OpenAI, Gumamit ng TPUs ng Google sa Estratehikong Paglipat Mula Nvidia

Sa isang mahalagang pagbabago sa AI infrastructure, nagsimula nang umupa ang OpenAI ng mga specialized Tensor Processing Units (TPUs) ng Google upang paganahin ang ChatGPT at iba pang AI products nito, ayon sa mga source na pamilyar sa kasunduan.

Ito ang unang pagkakataon na makabuluhang gumamit ang OpenAI ng mga chip na hindi mula sa Nvidia para sa kanilang AI workloads. Kilala ang kumpanya bilang isa sa pinakamalalaking mamimili ng Nvidia graphics processing units (GPUs) sa buong mundo, na siyang nangingibabaw sa AI chip market. Umaasa ang OpenAI na makakatulong ang TPUs—na ina-access nila sa pamamagitan ng Google Cloud—upang mapababa ang gastos ng inference computing, ang proseso kung saan ginagamit ng AI models ang kanilang training upang gumawa ng prediksyon o desisyon.

Ang partnership na ito ay isa pang hakbang sa estratehiya ng OpenAI na palawakin at pag-ibahin ang kanilang computing infrastructure. Mas maaga ngayong taon, binago ng Microsoft—ang pinakamalaking investor at pangunahing cloud provider ng OpenAI—ang kanilang eksklusibong kasunduan, at lumipat sa isang modelo kung saan may "right of first refusal" ang Microsoft sa bagong cloud computing capacity ng OpenAI. Dahil dito, nagkaroon ng pagkakataon ang OpenAI na pumasok sa iba pang partnership, kabilang na ang pinakabagong kasunduan sa Google.

Para sa Google, ang pagkakaroon ng OpenAI bilang customer ay nagpapakita kung paano matagumpay na nagamit ng tech giant ang kanilang sariling AI technology upang palakihin ang negosyo ng Google Cloud. Ang mga TPU ng Google, na dati ay para lamang sa internal na paggamit, ay may partikular na benepisyo para sa ilang AI workloads, kabilang ang posibleng mas mataas na energy efficiency at cost-effectiveness para sa inference tasks kumpara sa GPUs.

Gayunpaman, may limitasyon ang kolaborasyong ito. Ayon sa mga ulat, hindi inuupa ng Google ang pinaka-makapangyarihan nitong mga TPU sa OpenAI, upang mapanatili ang ilang kompetitibong hangganan sa pagitan ng dalawang AI rivals. Ipinapakita ng piling pamamaraang ito ang komplikadong dinamika sa AI sector, kung saan madalas na sabay na naglalaban at nagkakaisa ang mga kumpanya.

Naganap ang kasunduang ito sa gitna ng matinding kumpetisyon para sa AI computing resources, kung saan ang mga malalaking kumpanya ng teknolohiya ay nag-iinvest ng bilyon-bilyong dolyar sa specialized hardware. Ang pinakabagong henerasyon ng TPU ng Google, na may codename na Trillium, ay nag-aalok ng malaking pagtaas sa performance kumpara sa mga naunang bersyon at dinisenyo upang tugunan ang napakalaking computational demands ng mga advanced na AI model.

Source:

Latest News