W istotnej zmianie dla infrastruktury AI, OpenAI zaczęło wynajmować specjalistyczne układy Tensor Processing Units (TPU) firmy Google, aby zasilać ChatGPT i inne swoje produkty oparte na sztucznej inteligencji – podają źródła zaznajomione ze sprawą.
To pierwszy raz, gdy OpenAI w znaczącym stopniu wykorzystuje chipy inne niż Nvidia do obsługi swoich obciążeń AI. Firma historycznie była jednym z największych na świecie nabywców procesorów graficznych (GPU) Nvidii, które dominują na rynku układów do AI. OpenAI liczy, że TPU, do których uzyskuje dostęp poprzez Google Cloud, pomogą obniżyć koszty obliczeń inferencyjnych – czyli procesu, w którym modele AI wykorzystują swoje wytrenowanie do przewidywań lub podejmowania decyzji.
Partnerstwo to stanowi kolejny krok w strategii OpenAI polegającej na dywersyfikacji infrastruktury obliczeniowej. Na początku tego roku Microsoft – największy inwestor OpenAI i główny dostawca usług chmurowych – zmodyfikował dotychczasową wyłączność, przechodząc na model, w którym Microsoft ma „prawo pierwszeństwa” do nowej mocy obliczeniowej OpenAI w chmurze. Ta zmiana umożliwiła OpenAI nawiązywanie dodatkowych partnerstw, w tym najnowszego z Google.
Dla Google pozyskanie OpenAI jako klienta pokazuje, jak gigant technologiczny skutecznie wykorzystuje własne technologie AI do rozwoju biznesu chmurowego. TPU Google, które historycznie były zarezerwowane do użytku wewnętrznego, oferują określone przewagi przy niektórych zadaniach AI, w tym potencjalnie lepszą efektywność energetyczną i opłacalność w zadaniach inferencyjnych w porównaniu do GPU.
Współpraca ta ma jednak swoje ograniczenia. Według doniesień Google nie udostępnia OpenAI swoich najmocniejszych układów TPU, zachowując pewne granice konkurencyjne między obiema firmami. To selektywne podejście podkreśla złożoną dynamikę w sektorze AI, gdzie firmy często jednocześnie konkurują i współpracują.
Umowa została zawarta w czasie zaciętej rywalizacji o zasoby obliczeniowe AI, gdy największe firmy technologiczne inwestują miliardy w specjalistyczny sprzęt. Najnowsza generacja TPU Google, o nazwie kodowej Trillium, oferuje znaczące ulepszenia wydajności względem poprzednich wersji i została zaprojektowana z myślą o obsłudze ogromnych wymagań obliczeniowych zaawansowanych modeli AI.