menu
close

Vercel startet AI Cloud zur Vereinfachung der Agenten-Entwicklung

Vercel hat seine AI Cloud-Plattform vorgestellt und erweitert damit die Fähigkeiten der Frontend Cloud, um agentenbasierte KI-Workloads durch einen Infrastructure-as-Code-Ansatz zu unterstützen. Die Plattform ermöglicht es Entwicklungsteams, konversationelle KI-Frontends und autonome Agenten zu erstellen, bereitzustellen und zu skalieren – ganz ohne manuelle Konfiguration oder zusätzlichen Ressourcenaufwand. Der Start erfolgt zu einem strategisch günstigen Zeitpunkt, da Wettbewerber wie Anthropic die Nutzungslimits ihrer Entwickler-Tools verschärfen.
Vercel startet AI Cloud zur Vereinfachung der Agenten-Entwicklung

Vercel hat seine Entwicklungsplattform mit dem Start der AI Cloud grundlegend weiterentwickelt – einer einheitlichen Infrastruktur, die speziell für KI-native Anwendungen und agentengetriebene Workloads konzipiert ist.

Angekündigt auf der Vercel Ship 2025 baut die AI Cloud-Plattform auf denselben Prinzipien auf, die Vercels Frontend Cloud erfolgreich gemacht haben: Infrastruktur soll aus Code entstehen, nicht durch manuelle Konfiguration. Das Besondere an der AI Cloud ist, dass framework-definierte Infrastruktur Anwendungslogik automatisch in laufende Cloud-Services verwandelt. Dieser Ansatz ist besonders relevant, da KI-Agenten zunehmend Code generieren und ausliefern.

Die Plattform führt mehrere Schlüsselkomponenten zur Optimierung von KI-Deployments ein. Dazu gehören das AI SDK und das AI Gateway zur Integration mit rund 100 KI-Modellen von Anbietern wie OpenAI, Anthropic und xAI; Fluid Compute mit Active CPU Pricing für hochgradig parallele, latenzarme und kosteneffiziente KI-Ausführung; sowie Tool-Unterstützung für autonome Aktionen. Das AI Gateway bietet einen einheitlichen Endpunkt, der vollständige Anbieterunabhängigkeit ermöglicht (Entwickler können Modelle mit nur einer Codezeile austauschen), Observability zur Überwachung von Latenz und Kosten sowie Failover-Funktionen, die Anfragen bei Ausfällen eines Anbieters automatisch umleiten.

Traditionelle Serverless-Plattformen haben Schwierigkeiten mit I/O-lastigen Workloads wie KI-Inferenz und Agenten, die sofort skalieren müssen, aber oft zwischen den Operationen im Leerlauf sind. Fluid Compute löst dieses Problem, indem es das klassische Eins-zu-eins-Modell von Serverless aufbricht. Statt für jede Ausführung eine eigene Instanz zu starten, orchestriert Fluid Compute die Ressourcen intelligent über mehrere Aufrufe hinweg, sodass viele gleichzeitige Anfragen die zugrunde liegenden Ressourcen gemeinsam nutzen können. Teams berichten von bis zu 85 % Kosteneinsparung durch diese Technologie.

Für die Sicherheit sorgt Vercel Sandbox: eine isolierte, kurzlebige Ausführungsumgebung für nicht vertrauenswürdigen Code. Sie unterstützt Node.js und Python, skaliert auf Hunderte parallele Umgebungen und ermöglicht es Entwicklern, Logs zu streamen, Abhängigkeiten zu installieren und das Laufzeitverhalten in sicheren Containern mit bis zu 45 Minuten Ausführungszeit zu steuern.

Der Launch markiert einen bedeutenden Fortschritt in der Entwicklung der Vercel-Plattform – und das zu einem Zeitpunkt, an dem andere KI-Anbieter wie Anthropic die Nutzungslimits ihrer Entwickler-Tools verschärfen. Seit dem 14. Juli hat Anthropic unerwartet restriktive Nutzungslimits für Claude Code eingeführt – insbesondere für Vielnutzer des $200/Monat Max-Plans. Nutzer stoßen auf vage Meldungen wie "Claude usage limit reached" und wurden nicht vorab über die Änderungen informiert. Mit der AI Cloud positioniert sich Vercel als zentraler Infrastrukturanbieter im sich rasant entwickelnden KI-Ökosystem, indem das Unternehmen eine schlanke Lösung für Teams bietet, die mit KI-Technologien arbeiten.

Source: Aidevroundup

Latest News