menu
close

OpenAI diversifiziert Chip-Strategie und präzisiert Tests mit Google-TPUs

OpenAI hat bestätigt, dass das Unternehmen Googles Tensor Processing Units (TPUs) testet, jedoch keine unmittelbaren Pläne für einen großflächigen Einsatz hat. Der KI-Pionier setzt aktiv Nvidia-GPUs und AMD-Chips ein, um den steigenden Rechenbedarf zu decken, und entwickelt parallel eigene maßgeschneiderte Halbleiter. Diese strategische Diversifizierung unterstreicht die entscheidende Bedeutung der Chip-Infrastruktur im wettbewerbsintensiven KI-Sektor.
OpenAI diversifiziert Chip-Strategie und präzisiert Tests mit Google-TPUs

OpenAI hat seine Position zu Googles KI-Chips klargestellt: Während erste Tests mit Googles Tensor Processing Units (TPUs) laufen, gibt es derzeit keine Pläne für einen großflächigen Einsatz.

Am 30. Juni äußerte sich ein OpenAI-Sprecher zu Berichten, wonach das Unternehmen Googles hauseigene Chips für seine Produkte nutzen wolle. Die Klarstellung folgte auf frühere Meldungen, nach denen OpenAI begonnen habe, Googles TPUs über Google Cloud zu mieten, um möglicherweise die Kosten für Inferenz-Berechnungen zu senken – ein Posten, der angeblich mehr als 50 % des Compute-Budgets von OpenAI ausmacht.

Der KI-Vorreiter verfolgt eine mehrgleisige Chip-Strategie, um den exponentiell wachsenden Rechenbedarf zu bewältigen. Aktuell setzt OpenAI stark auf GPUs von Nvidia, die rund 80 % des KI-Chip-Marktes dominieren. Gleichzeitig werden KI-Chips von AMD aktiv in die Infrastruktur integriert. Ein bedeutender Schritt: OpenAI-CEO Sam Altman trat im Juni 2025 gemeinsam mit AMD-Chefin Lisa Su auf dem Event „Advancing AI“ auf und bestätigte die Nutzung der AMD MI300X-Chips sowie das Engagement für die kommende MI400-Serie.

Parallel dazu macht OpenAI große Fortschritte bei der Entwicklung eines eigenen KI-Chips. Das firmeninterne Team unter Leitung des ehemaligen Google-TPU-Chefs Richard Ho ist auf etwa 40 Ingenieure angewachsen und arbeitet eng mit Broadcom zusammen. Das Projekt für maßgeschneiderte Halbleiter soll noch dieses Jahr den wichtigen „Tape-Out“-Meilenstein erreichen, die Massenproduktion ist für 2026 bei der Taiwan Semiconductor Manufacturing Company (TSMC) geplant.

OpenAIs diversifizierter Ansatz bei der Chip-Infrastruktur spiegelt die strategische Bedeutung von Hardware im KI-Wettlauf wider. Da das Training und der Betrieb immer leistungsfähigerer KI-Modelle enorme Rechenressourcen erfordern, versuchen Unternehmen, Leistung zu optimieren und gleichzeitig Kosten sowie Abhängigkeiten in der Lieferkette zu steuern. Mit Infrastrukturpartnern wie Microsoft, Oracle und CoreWeave positioniert sich OpenAI, um technologische Führungsposition zu behaupten und zugleich die finanziellen Herausforderungen beim Skalieren von KI-Systemen zu meistern.

Source: Reuters

Latest News