I ett betydande skifte för AI-branschen har OpenAI börjat använda Googles Tensor Processing Units (TPU:er) för att driva ChatGPT och andra AI-produkter, enligt källor med insyn i samarbetet.
Detta är första gången OpenAI på allvar integrerar chipp som inte kommer från Nvidia i sin infrastruktur. Fram till nu har företaget varit en av världens största köpare av Nvidias grafikkort (GPU:er), som används både för träning av AI-modeller och för inferensberäkningar – processen där modeller gör förutsägelser baserat på ny information.
Det oväntade samarbetet mellan två stora AI-konkurrenter signalerar OpenAIs strategiska ambition att bredda sina datorresurser utöver Microsofts Azure-molnplattform. Microsoft är fortfarande OpenAIs största investerare och huvudsakliga infrastrukturleverantör, men relationen har visat tecken på ansträngning de senaste månaderna i takt med att OpenAI söker större självständighet.
För Google innebär avtalet en stor framgång när de nu utökar den externa tillgängligheten av sina egenutvecklade TPU:er, som tidigare främst använts internt. Googles TPU-chipp är specialdesignade för maskininlärningsuppgifter och kan erbjuda prestandafördelar för vissa AI-arbetslaster jämfört med mer generella GPU:er. Företaget har redan säkrat andra högprofilerade kunder, däribland Apple, Anthropic och Safe Superintelligence – två AI-bolag grundade av tidigare OpenAI-ledare.
OpenAI hoppas att hyrningen av TPU:er via Google Cloud ska bidra till att sänka kostnaderna för inferensberäkningar, något som blivit allt viktigare i takt med att ChatGPT:s användarbas vuxit till hundratals miljoner. Källor uppger dock att Google inte ger OpenAI tillgång till sina allra kraftfullaste TPU-chipp, vilket gör att Google behåller vissa konkurrensfördelar.
Utvecklingen sker samtidigt som OpenAI breddar sin infrastrukturstrategi, där bland annat det 500 miljarder dollar stora Stargate-projektet med SoftBank och Oracle samt mångmiljardavtal med CoreWeave för ytterligare datorkapacitet ingår. Företaget uppges även utveckla sitt första egenutvecklade chipp för att minska beroendet av externa leverantörer.
I takt med att efterfrågan på AI-beräkningar fortsätter att öka – och OpenAIs årliga kostnader väntas nå flera miljarder dollar – visar partnerskapet hur även hårda konkurrenter inom AI-sektorn är beredda att samarbeta för att möta de enorma datorkrav som driver branschen framåt.