I et markant skifte inden for AI-infrastruktur er OpenAI begyndt at leje Googles specialiserede Tensor Processing Units (TPU'er) for at drive ChatGPT og andre AI-produkter, ifølge kilder med kendskab til aftalen.
Dette er første gang, OpenAI i væsentlig grad benytter chips, der ikke er fra Nvidia, til sine AI-arbejdsbelastninger. Virksomheden har historisk set været en af verdens største indkøbere af Nvidias grafiske processorer (GPU'er), som dominerer markedet for AI-chips. OpenAI håber, at TPU'erne, som tilgås via Google Cloud, kan hjælpe med at reducere omkostningerne ved inferensberegninger—processen hvor AI-modeller bruger deres træning til at komme med forudsigelser eller træffe beslutninger.
Partnerskabet er endnu et skridt i OpenAIs strategi om at diversificere sin computerinfrastruktur. Tidligere i år ændrede Microsoft—OpenAIs største investor og primære cloududbyder—deres eksklusive aftale, så Microsoft nu har en "førsteret" til ny OpenAI-cloudkapacitet. Denne ændring gjorde det muligt for OpenAI at indgå yderligere partnerskaber, herunder det seneste med Google.
For Google viser det, at OpenAI nu er kunde, hvordan teknologigiganten har formået at udnytte sin egen AI-teknologi til at styrke sin cloudforretning. Googles TPU'er, der tidligere hovedsageligt blev brugt internt, tilbyder særlige fordele til visse AI-arbejdsbelastninger, herunder potentielt bedre energieffektivitet og omkostningseffektivitet ved inferensopgaver sammenlignet med GPU'er.
Samarbejdet har dog sine begrænsninger. Ifølge rapporter udlejer Google ikke sine mest kraftfulde TPU'er til OpenAI og opretholder dermed visse konkurrencegrænser mellem de to AI-rivaler. Denne selektive tilgang understreger de komplekse dynamikker i AI-sektoren, hvor virksomheder ofte både konkurrerer og samarbejder på samme tid.
Aftalen kommer midt i intens konkurrence om AI-computerressourcer, hvor store teknologivirksomheder investerer milliarder i specialiseret hardware. Googles nyeste TPU-generation, med kodenavnet Trillium, tilbyder markante ydelsesforbedringer i forhold til tidligere versioner og er designet til at håndtere de enorme beregningskrav fra avancerede AI-modeller.