menu
close

OpenAI börjar använda Googles TPU:er i strategisk kursändring från Nvidia-chipp

OpenAI har börjat hyra Googles Tensor Processing Units (TPU:er) för att driva ChatGPT och andra produkter, vilket markerar det första betydande användandet av icke-Nvidia-chipp av AI-ledaren. Det oväntade samarbetet mellan konkurrenterna sker samtidigt som OpenAI vill diversifiera sin datorkapacitet bortom Microsofts datacenter. Företaget hoppas att Googles molnbaserade TPU:er ska bidra till att sänka inferenskostnaderna och samtidigt bibehålla prestandan för dess snabbt växande AI-tjänster.
OpenAI börjar använda Googles TPU:er i strategisk kursändring från Nvidia-chipp

I ett betydande skifte för AI-branschen har OpenAI börjat använda Googles Tensor Processing Units (TPU:er) för att driva ChatGPT och andra AI-produkter, enligt källor med insyn i samarbetet.

Detta är första gången OpenAI på allvar integrerar chipp som inte kommer från Nvidia i sin infrastruktur. Fram till nu har företaget varit en av världens största köpare av Nvidias grafikkort (GPU:er), som används både för träning av AI-modeller och för inferensberäkningar – processen där modeller gör förutsägelser baserat på ny information.

Det oväntade samarbetet mellan två stora AI-konkurrenter signalerar OpenAIs strategiska ambition att bredda sina datorresurser utöver Microsofts Azure-molnplattform. Microsoft är fortfarande OpenAIs största investerare och huvudsakliga infrastrukturleverantör, men relationen har visat tecken på ansträngning de senaste månaderna i takt med att OpenAI söker större självständighet.

För Google innebär avtalet en stor framgång när de nu utökar den externa tillgängligheten av sina egenutvecklade TPU:er, som tidigare främst använts internt. Googles TPU-chipp är specialdesignade för maskininlärningsuppgifter och kan erbjuda prestandafördelar för vissa AI-arbetslaster jämfört med mer generella GPU:er. Företaget har redan säkrat andra högprofilerade kunder, däribland Apple, Anthropic och Safe Superintelligence – två AI-bolag grundade av tidigare OpenAI-ledare.

OpenAI hoppas att hyrningen av TPU:er via Google Cloud ska bidra till att sänka kostnaderna för inferensberäkningar, något som blivit allt viktigare i takt med att ChatGPT:s användarbas vuxit till hundratals miljoner. Källor uppger dock att Google inte ger OpenAI tillgång till sina allra kraftfullaste TPU-chipp, vilket gör att Google behåller vissa konkurrensfördelar.

Utvecklingen sker samtidigt som OpenAI breddar sin infrastrukturstrategi, där bland annat det 500 miljarder dollar stora Stargate-projektet med SoftBank och Oracle samt mångmiljardavtal med CoreWeave för ytterligare datorkapacitet ingår. Företaget uppges även utveckla sitt första egenutvecklade chipp för att minska beroendet av externa leverantörer.

I takt med att efterfrågan på AI-beräkningar fortsätter att öka – och OpenAIs årliga kostnader väntas nå flera miljarder dollar – visar partnerskapet hur även hårda konkurrenter inom AI-sektorn är beredda att samarbeta för att möta de enorma datorkrav som driver branschen framåt.

Source:

Latest News