menu
close

OpenAI Gunakan TPU Google, Beralih dari Chip Nvidia

OpenAI mulai menyewa Tensor Processing Units (TPU) milik Google untuk mendukung ChatGPT dan produk lainnya, menandai penggunaan signifikan pertama chip non-Nvidia oleh pemimpin AI tersebut. Kolaborasi mengejutkan antara dua pesaing ini terjadi saat OpenAI berupaya mendiversifikasi infrastruktur komputasinya di luar pusat data Microsoft. Perusahaan berharap TPU berbasis cloud Google dapat membantu menurunkan biaya inferensi tanpa mengorbankan performa bagi layanan AI yang berkembang pesat.
OpenAI Gunakan TPU Google, Beralih dari Chip Nvidia

Dalam pergeseran besar di industri AI, OpenAI mulai menggunakan Tensor Processing Units (TPU) milik Google untuk mendukung ChatGPT dan produk AI lainnya, menurut sumber yang mengetahui kesepakatan ini.

Langkah ini menjadi kali pertama OpenAI secara signifikan mengadopsi chip non-Nvidia dalam infrastrukturnya. Selama ini, OpenAI dikenal sebagai salah satu pembeli terbesar Graphics Processing Units (GPU) Nvidia di dunia, yang digunakan baik untuk pelatihan model AI maupun komputasi inferensi—proses di mana model membuat prediksi berdasarkan informasi baru.

Kemitraan mengejutkan antara dua pesaing utama AI ini menandakan upaya strategis OpenAI untuk mendiversifikasi sumber daya komputasinya di luar platform cloud Azure milik Microsoft. Meski Microsoft tetap menjadi investor terbesar dan penyedia infrastruktur utama OpenAI, hubungan keduanya belakangan menunjukkan tanda-tanda ketegangan seiring keinginan OpenAI untuk lebih mandiri.

Bagi Google, kesepakatan ini merupakan kemenangan besar karena memperluas ketersediaan eksternal TPU buatan sendiri, yang sebelumnya lebih banyak digunakan secara internal. Chip TPU Google dirancang khusus untuk tugas machine learning dan dapat menawarkan keunggulan performa untuk beban kerja AI tertentu dibandingkan GPU serbaguna. Google juga telah mengamankan pelanggan ternama lain seperti Apple, Anthropic, dan Safe Superintelligence—dua perusahaan AI yang didirikan oleh mantan petinggi OpenAI.

OpenAI berharap dengan menyewa TPU melalui Google Cloud, biaya komputasi inferensi dapat ditekan, mengingat basis pengguna ChatGPT kini telah mencapai ratusan juta. Namun, sumber menyebutkan bahwa Google tidak memberikan akses kepada OpenAI untuk chip TPU terkuatnya, sehingga tetap menjaga keunggulan kompetitif.

Perkembangan ini terjadi di tengah strategi diversifikasi infrastruktur yang lebih luas dari OpenAI, termasuk proyek Stargate senilai US$500 miliar bersama SoftBank dan Oracle, serta kesepakatan multi-miliar dolar dengan CoreWeave untuk kapasitas komputasi tambahan. OpenAI juga dikabarkan tengah mengembangkan chip internal pertamanya guna mengurangi ketergantungan pada penyedia perangkat keras eksternal.

Seiring meningkatnya kebutuhan komputasi AI—dengan proyeksi biaya tahunan OpenAI mencapai miliaran dolar—kemitraan ini menunjukkan bahwa bahkan para pesaing sengit di sektor AI pun bersedia bekerja sama demi memenuhi kebutuhan komputasi masif yang mendorong industri ke depan.

Source:

Latest News