I et markant skifte for AI-branchen er OpenAI begyndt at anvende Googles Tensor Processing Units (TPU'er) til at drive ChatGPT og andre AI-produkter, ifølge kilder med kendskab til aftalen.
Dette er første gang, OpenAI i væsentlig grad har integreret ikke-Nvidia-chips i sin infrastruktur. Indtil nu har virksomheden været en af verdens største købere af Nvidias grafiske processorenheder (GPU'er), som bruges både til træning af AI-modeller og til inferensberegninger – processen hvor modeller forudsiger baseret på ny information.
Det overraskende partnerskab mellem to store AI-konkurrenter signalerer OpenAIs strategiske indsats for at diversificere sine computerressourcer ud over Microsofts Azure-cloudplatform. Selvom Microsoft fortsat er OpenAIs største investor og primære infrastrukturleverandør, har forholdet vist tegn på spændinger de seneste måneder, i takt med at OpenAI søger større uafhængighed.
For Google markerer aftalen en væsentlig sejr, idet virksomheden udvider den eksterne adgang til sine interne TPU'er, som historisk set har været forbeholdt intern brug. Googles TPU-chips er specialdesignet til maskinlæringsopgaver og kan tilbyde ydeevnefordele for visse AI-arbejdsbyrder sammenlignet med generelle GPU'er. Virksomheden har allerede sikret sig andre prominente kunder, herunder Apple, Anthropic og Safe Superintelligence – to AI-virksomheder grundlagt af tidligere OpenAI-ledere.
OpenAI håber, at leje af TPU'er gennem Google Cloud kan hjælpe med at sænke omkostningerne til inferensberegninger, hvilket er blevet stadig vigtigere, efterhånden som ChatGPT's brugerbase er vokset til flere hundrede millioner. Kilder oplyser dog, at Google ikke giver OpenAI adgang til sine mest kraftfulde TPU-chips og dermed bevarer en vis konkurrencefordel.
Denne udvikling sker som led i OpenAIs bredere strategi for infrastrukturdiversificering, der blandt andet omfatter det 500 milliarder dollars store Stargate-projekt med SoftBank og Oracle samt flerårige milliardaftaler med CoreWeave om yderligere regnekraft. Virksomheden arbejder angiveligt også på at udvikle sin første egen chip for at mindske afhængigheden af eksterne hardwareleverandører.
I takt med at kravene til AI-beregninger fortsætter med at stige, og OpenAIs årlige omkostninger forventes at nå op i milliardklassen, viser dette partnerskab, hvordan selv hårde konkurrenter i AI-sektoren er villige til at samarbejde for at imødekomme de enorme computerbehov, der driver branchen fremad.