Mit einem Schritt, der die sich wandelnde Dynamik im Bereich der künstlichen Intelligenz unterstreicht, hat OpenAI eine bahnbrechende Cloud-Service-Vereinbarung mit Google geschlossen – einem der Hauptkonkurrenten im KI-Sektor.
Der nach monatelangen Verhandlungen im Mai finalisierte Vertrag verschafft OpenAI zusätzliche Rechenkapazitäten, um seine zunehmend ressourcenintensiven KI-Modelle zu trainieren und zu betreiben. Diese Partnerschaft ist OpenAIs jüngster Versuch, die eigene Infrastruktur über Microsoft Azure hinaus zu diversifizieren, das bis Januar 2025 als exklusiver Cloud-Anbieter diente.
Die Vereinbarung kommt zu einem entscheidenden Zeitpunkt für OpenAI: Das Unternehmen gab kürzlich bekannt, dass der annualisierte Umsatz im Juni 2025 die Marke von 10 Milliarden US-Dollar erreicht hat – eine Verdopplung gegenüber 5,5 Milliarden US-Dollar im Dezember 2024. Mit 500 Millionen wöchentlich aktiven Nutzern und 3 Millionen zahlenden Geschäftskunden steht OpenAI unter wachsendem Druck, die Infrastruktur an die steigende Nachfrage anzupassen.
Für Google Cloud bedeutet die Gewinnung von OpenAI als Kunden einen bedeutenden Erfolg – trotz der Konkurrenz zwischen den Unternehmen. ChatGPT zählt weiterhin zu den größten Herausforderungen für Googles Suchdominanz, während Googles Gemini-KI direkt mit OpenAIs Produkten konkurriert. Dennoch stellen beide Unternehmen pragmatische Geschäftsinteressen über den Wettbewerbsdruck.
Die Partnerschaft folgt auf weitere große Infrastrukturinitiativen von OpenAI, darunter das im Januar 2025 angekündigte 500-Milliarden-Dollar-Projekt Stargate in Zusammenarbeit mit SoftBank und Oracle. Ziel dieses Vorhabens ist der Aufbau riesiger KI-Rechenzentren in den USA, mit einer Anfangsinvestition von 100 Milliarden US-Dollar.
Branchenanalysten sehen in diesem Deal ein Signal für einen breiteren Trend: KI-Unternehmen setzen zunehmend auf Multi-Cloud-Strategien, um ausreichend Rechenressourcen zu sichern und eine zu starke Abhängigkeit von einzelnen Anbietern zu vermeiden. Da das Training von KI-Modellen immer ressourcenintensiver wird, teilen selbst erbitterte Konkurrenten ihre Infrastruktur, um den außergewöhnlichen Anforderungen fortschrittlicher KI-Entwicklung gerecht zu werden.