Dalam satu perubahan besar bagi industri AI, OpenAI telah mula menggunakan Tensor Processing Units (TPU) Google untuk menggerakkan ChatGPT dan produk AI lain, menurut sumber yang mengetahui perjanjian ini.
Langkah ini merupakan kali pertama OpenAI secara bermakna menggabungkan cip bukan Nvidia ke dalam infrastrukturnya. Sebelum ini, syarikat tersebut merupakan salah satu pembeli terbesar unit pemprosesan grafik (GPU) Nvidia di dunia, yang digunakan untuk latihan model AI dan pengiraan inferens—proses di mana model membuat ramalan berdasarkan maklumat baharu.
Kerjasama mengejutkan antara dua pesaing utama AI ini menandakan usaha strategik OpenAI untuk mempelbagaikan sumber pengkomputerannya di luar platform awan Azure Microsoft. Walaupun Microsoft kekal sebagai pelabur terbesar dan penyedia infrastruktur utama OpenAI, hubungan mereka menunjukkan tanda-tanda ketegangan dalam beberapa bulan kebelakangan ini apabila OpenAI mencari lebih banyak kebebasan.
Bagi Google, perjanjian ini adalah satu kemenangan besar apabila ia memperluaskan ketersediaan luaran TPU yang dibangunkan sendiri, yang sebelum ini hanya digunakan secara dalaman. Cip TPU Google direka khas untuk tugas pembelajaran mesin dan boleh menawarkan kelebihan prestasi untuk beban kerja AI tertentu berbanding GPU serba guna. Syarikat itu telah pun memperoleh pelanggan berprofil tinggi lain termasuk Apple, Anthropic, dan Safe Superintelligence—dua syarikat AI yang diasaskan oleh bekas pemimpin OpenAI.
OpenAI berharap penyewaan TPU melalui Google Cloud dapat membantu menurunkan kos pengiraan inferens, yang semakin penting apabila bilangan pengguna ChatGPT meningkat kepada ratusan juta. Namun, sumber menyatakan bahawa Google tidak memberikan akses kepada cip TPU paling berkuasa miliknya kepada OpenAI, mengekalkan kelebihan daya saing tertentu.
Perkembangan ini berlaku di tengah-tengah strategi pemelbagaian infrastruktur OpenAI yang lebih meluas, termasuk projek Stargate bernilai $500 bilion bersama SoftBank dan Oracle, serta perjanjian bernilai berbilion dolar dengan CoreWeave untuk kapasiti pengkomputeran tambahan. Syarikat itu juga dilaporkan sedang membangunkan cip dalaman pertamanya untuk mengurangkan kebergantungan kepada pembekal perkakasan luar.
Ketika permintaan pengkomputeran AI terus meningkat, dengan kos tahunan OpenAI dijangka mencecah berbilion dolar, kerjasama ini menunjukkan bagaimana pesaing sengit dalam sektor AI sanggup bekerjasama demi memenuhi keperluan pengkomputeran besar-besaran yang memacu industri ke hadapan.