menu
close

OpenAI testet Google-TPUs, um steigende KI-Inferenzkosten zu bekämpfen

OpenAI hat begonnen, Googles Tensor Processing Units (TPUs) zu testen, um Alternativen zur Bewältigung der steigenden Kosten für KI-Inferenz zu erkunden, die inzwischen über 50 % des Compute-Budgets ausmachen. Auch wenn dies noch keinen unmittelbaren großflächigen Einsatz bedeutet, markiert dieser strategische Schritt die erste bedeutende Nutzung von Nicht-NVIDIA-Hardware durch OpenAI und deutet auf eine Abkehr von der exklusiven Abhängigkeit von Microsofts Infrastruktur hin. Diese Entwicklung könnte die KI-Hardware-Landschaft nachhaltig verändern, indem sie NVIDIAs Dominanz herausfordert und neue Wettbewerbsdynamiken unter den großen Technikanbietern schafft.
OpenAI testet Google-TPUs, um steigende KI-Inferenzkosten zu bekämpfen

OpenAI, einer der weltweit größten Kunden von NVIDIAs Grafikprozessoren (GPUs), hat begonnen, Googles Tensor Processing Units (TPUs) zum Betrieb seiner KI-Systeme, einschließlich ChatGPT, zu testen. Dieser Schritt erfolgt, da das Unternehmen mit steigenden Rechenkosten konfrontiert ist und nach kostengünstigeren Lösungen für seine wachsenden KI-Aktivitäten sucht.

Laut Branchenanalysten beansprucht die Inferenz – also der Prozess, bei dem KI-Modelle ihr erlerntes Wissen für Vorhersagen oder Entscheidungen nutzen – inzwischen über 50 % des Compute-Budgets von OpenAI. TPUs, insbesondere ältere Generationen, bieten deutlich geringere Kosten pro Inferenz im Vergleich zu NVIDIA-GPUs und sind daher trotz möglicherweise geringerer Spitzenleistung gegenüber neueren NVIDIA-Chips eine attraktive Alternative.

„Auch wenn ältere TPUs nicht die Spitzenleistung neuerer Nvidia-Chips erreichen, minimiert ihre spezialisierte Architektur Energieverschwendung und Leerlaufressourcen, was sie im großen Maßstab kosteneffizienter macht“, erklärt Charlie Dai, VP und Principal Analyst bei Forrester. Branchenanalysen zufolge kann Google KI-Rechenleistung zu etwa 20 % der Kosten bereitstellen, die beim Kauf von High-End-NVIDIA-GPUs anfallen – was einen Kostenvorteil von etwa dem Vier- bis Sechsfachen bedeutet.

Allerdings hat OpenAI klargestellt, dass es derzeit keine unmittelbaren Pläne für einen großflächigen TPU-Einsatz gibt. Ein Sprecher sagte gegenüber Reuters, das Unternehmen befinde sich in „frühen Tests mit einigen Google-TPUs“, habe aber aktuell „keine Pläne für einen Einsatz im großen Maßstab“. Dieser vorsichtige Ansatz spiegelt die erheblichen technischen Herausforderungen bei der Umstellung der Infrastruktur wider, da der Software-Stack von OpenAI bislang hauptsächlich für GPUs optimiert wurde.

Über die Kostenaspekte hinaus stellt dieser Schritt eine strategische Diversifizierung der Rechenquellen von OpenAI dar, die bisher exklusiv von Microsoft als Rechenzentrums-Infrastrukturpartner bis Januar 2025 bereitgestellt wurden. Das Unternehmen kooperiert bereits mit Oracle und CoreWeave im Rahmen seines Stargate-Infrastrukturprogramms und entwickelt zudem einen eigenen KI-Prozessor, der voraussichtlich noch in diesem Jahr das Tape-Out-Stadium erreichen wird.

Die Auswirkungen auf den KI-Hardwaremarkt könnten erheblich sein. Sollte OpenAI erfolgreich auf TPUs setzen, könnte dies Googles Hardware als ernstzunehmende Alternative zur Quasi-Monopolstellung von NVIDIA im Hochleistungs-KI-Computing etablieren. Dies könnte NVIDIA unter Druck setzen, Innovationen voranzutreiben oder die Preise anzupassen, und gleichzeitig neue Wettbewerbsdynamiken zwischen Cloud-Anbietern wie Google, Microsoft und Amazon schaffen, die um die Vorherrschaft bei KI-Infrastrukturen konkurrieren.

Source: Computerworld

Latest News