W istotnym zwrocie dla branży sztucznej inteligencji OpenAI zaczęło wykorzystywać jednostki Tensor Processing Unit (TPU) od Google do obsługi ChatGPT oraz innych swoich produktów AI – wynika z informacji uzyskanych od osób zaznajomionych ze sprawą.
To pierwszy raz, gdy OpenAI w znaczący sposób włącza do swojej infrastruktury chipy inne niż Nvidia. Dotychczas firma była jednym z największych na świecie nabywców procesorów graficznych (GPU) Nvidia, wykorzystywanych zarówno do trenowania modeli AI, jak i do obliczeń inferencyjnych – czyli procesu, w którym modele dokonują predykcji na podstawie nowych danych.
To zaskakujące partnerstwo dwóch czołowych konkurentów w branży AI sygnalizuje strategiczne działania OpenAI na rzecz dywersyfikacji zasobów obliczeniowych poza platformę chmurową Azure od Microsoftu. Choć Microsoft pozostaje największym inwestorem OpenAI i głównym dostawcą infrastruktury, w ostatnich miesiącach relacje między firmami wykazują oznaki napięć, ponieważ OpenAI dąży do większej niezależności.
Dla Google to umowa o dużym znaczeniu, ponieważ rozszerza zewnętrzną dostępność autorskich TPU, które dotąd były zarezerwowane głównie do użytku wewnętrznego. Chipy TPU Google są projektowane specjalnie do zadań uczenia maszynowego i mogą oferować przewagę wydajnościową w określonych zastosowaniach AI w porównaniu do uniwersalnych GPU. Google pozyskało już innych prestiżowych klientów, takich jak Apple, Anthropic oraz Safe Superintelligence – dwie firmy AI założone przez byłych liderów OpenAI.
OpenAI liczy, że wynajem TPU przez Google Cloud pomoże obniżyć koszty inferencji, które stają się coraz ważniejsze wraz z rozrostem bazy użytkowników ChatGPT do setek milionów. Źródła wskazują jednak, że Google nie udostępnia OpenAI swoich najpotężniejszych chipów TPU, zachowując tym samym przewagę konkurencyjną.
To wydarzenie wpisuje się w szerszą strategię dywersyfikacji infrastruktury OpenAI, obejmującą projekt Stargate o wartości 500 miliardów dolarów realizowany z SoftBankiem i Oracle, a także wielomiliardowe umowy z CoreWeave na dodatkowe moce obliczeniowe. Firma pracuje również nad własnym chipem, który ma zmniejszyć zależność od zewnętrznych dostawców sprzętu.
W miarę jak zapotrzebowanie na moc obliczeniową dla AI stale rośnie, a roczne koszty OpenAI mogą sięgnąć miliardów dolarów, to partnerstwo pokazuje, że nawet zacięci konkurenci w branży są gotowi współpracować, by sprostać ogromnym wymaganiom obliczeniowym napędzającym rozwój sektora.