In einem bedeutenden Wandel der KI-Infrastruktur hat OpenAI begonnen, Googles spezialisierte Tensor Processing Units (TPUs) zu mieten, um ChatGPT und andere KI-Produkte zu betreiben, wie mit der Angelegenheit vertraute Quellen berichten.
Dies ist das erste Mal, dass OpenAI in nennenswertem Umfang Chips einsetzt, die nicht von Nvidia stammen. Das Unternehmen war bislang einer der weltweit größten Abnehmer von Nvidias Grafikprozessoren (GPUs), die den Markt für KI-Chips dominieren. OpenAI erhofft sich von den über Google Cloud zugänglichen TPUs eine Senkung der Kosten für Inferenz-Berechnungen – also für den Prozess, bei dem KI-Modelle ihr erlerntes Wissen für Vorhersagen oder Entscheidungen nutzen.
Die Partnerschaft ist ein weiterer Schritt in OpenAIs Strategie, die eigene Recheninfrastruktur zu diversifizieren. Anfang dieses Jahres hatte Microsoft – OpenAIs größter Investor und Haupt-Cloud-Anbieter – die exklusive Vereinbarung angepasst und ein Modell eingeführt, bei dem Microsoft ein „Vorkaufsrecht“ für neue Cloud-Kapazitäten von OpenAI erhält. Diese Änderung ermöglichte es OpenAI, weitere Partnerschaften einzugehen, darunter nun auch die Kooperation mit Google.
Für Google bedeutet der Gewinn von OpenAI als Kunden, dass der Konzern seine eigene KI-Technologie erfolgreich zur Stärkung des Cloud-Geschäfts einsetzen konnte. Die ursprünglich für den internen Gebrauch entwickelten TPUs bieten bei bestimmten KI-Anwendungen Vorteile, etwa eine potenziell bessere Energieeffizienz und Kosteneffektivität bei Inferenz-Aufgaben im Vergleich zu GPUs.
Die Zusammenarbeit hat jedoch ihre Grenzen: Medienberichten zufolge vermietet Google seine leistungsstärksten TPUs nicht an OpenAI und wahrt damit eine gewisse Wettbewerbsgrenze zwischen den beiden KI-Rivalen. Dieser selektive Ansatz verdeutlicht die komplexen Dynamiken im KI-Sektor, in dem Unternehmen häufig gleichzeitig konkurrieren und kooperieren.
Das Abkommen kommt zu einer Zeit intensiven Wettbewerbs um KI-Rechenressourcen, in der große Tech-Konzerne Milliarden in spezialisierte Hardware investieren. Googles neueste TPU-Generation mit dem Codenamen Trillium bietet erhebliche Leistungssteigerungen gegenüber früheren Versionen und ist darauf ausgelegt, die enormen Rechenanforderungen fortschrittlicher KI-Modelle zu bewältigen.