In einer bedeutenden Wendung für die KI-Branche nutzt OpenAI laut mit der Angelegenheit vertrauten Quellen nun Googles Tensor Processing Units (TPUs), um ChatGPT und andere KI-Produkte zu betreiben.
Dies ist das erste Mal, dass OpenAI in nennenswertem Umfang Chips eines anderen Herstellers als Nvidia in seine Infrastruktur integriert. Bisher gehörte das Unternehmen zu den weltweit größten Abnehmern von Nvidias Grafikprozessoren (GPUs), die sowohl für das Training von KI-Modellen als auch für Inferenzberechnungen – also das Treffen von Vorhersagen auf Basis neuer Informationen – eingesetzt werden.
Die überraschende Partnerschaft zwischen zwei führenden KI-Konkurrenten unterstreicht OpenAIs strategisches Bestreben, seine Rechenressourcen über Microsofts Azure-Cloud hinaus zu diversifizieren. Obwohl Microsoft weiterhin größter Investor und Hauptinfrastrukturpartner von OpenAI bleibt, gab es in den letzten Monaten Anzeichen für Spannungen, da OpenAI nach mehr Unabhängigkeit strebt.
Für Google ist der Deal ein bedeutender Erfolg, da das Unternehmen die externe Nutzung seiner bislang meist intern eingesetzten TPUs ausweitet. Die TPU-Chips von Google sind speziell für maschinelles Lernen entwickelt und bieten bei bestimmten KI-Workloads Leistungsvorteile gegenüber herkömmlichen GPUs. Zu den prominenten Kunden zählen inzwischen auch Apple, Anthropic und Safe Superintelligence – zwei KI-Unternehmen, die von ehemaligen OpenAI-Führungskräften gegründet wurden.
OpenAI erhofft sich durch das Anmieten von TPUs über Google Cloud eine Senkung der Inferenzkosten, die angesichts der auf mehrere hundert Millionen angewachsenen ChatGPT-Nutzerschaft immer wichtiger werden. Allerdings berichten Insider, dass Google OpenAI keinen Zugang zu seinen leistungsstärksten TPU-Chips gewährt und sich so einen Wettbewerbsvorteil bewahrt.
Diese Entwicklung ist Teil von OpenAIs umfassenderer Infrastruktur-Strategie, zu der auch das 500-Milliarden-Dollar-Projekt Stargate mit SoftBank und Oracle sowie milliardenschwere Vereinbarungen mit CoreWeave für zusätzliche Rechenkapazitäten gehören. Zudem arbeitet das Unternehmen Berichten zufolge an einem eigenen Chip, um die Abhängigkeit von externen Hardware-Anbietern zu verringern.
Angesichts der weiter steigenden Anforderungen an KI-Rechenleistung und jährlichen Kosten von mehreren Milliarden Dollar zeigt diese Partnerschaft, dass selbst erbitterte Konkurrenten in der KI-Branche bereit sind, zusammenzuarbeiten, um den enormen Bedarf an Rechenressourcen zu decken, der das Feld vorantreibt.