menu
close

Vercel、AI Cloudを発表――エージェント開発を効率化

Vercelは、インフラストラクチャをコードとして管理する手法により、エージェント型AIワークロードをサポートするAI Cloudプラットフォームを発表した。これにより、開発チームは会話型AIフロントエンドや自律型エージェントを手動設定やリソース管理の負担なく構築・展開・スケールできるようになる。競合のAnthropicが開発者向けツールの利用制限を強化する中での戦略的なリリースとなる。
Vercel、AI Cloudを発表――エージェント開発を効率化

Vercelは、AIネイティブアプリケーションおよびエージェント駆動型ワークロード向けに設計された統合インフラストラクチャ「AI Cloud」の提供を開始し、同社の開発プラットフォームを大きく進化させた。

Vercel Ship 2025で発表されたAI Cloudプラットフォームは、VercelのFrontend Cloudを成功に導いた「インフラは手動設定ではなくコードから生まれるべき」という原則を継承している。AI Cloudの強みは、フレームワークで定義されたインフラがアプリケーションロジックを自動的に稼働中のクラウドサービスへと変換する点にある。 このアプローチは、AIエージェントがコードを生成・デプロイする機会が増えている現在、特に重要だ。

AI CloudはAIのデプロイ最適化のため、複数の主要コンポーネントを導入している。OpenAI、Anthropic、xAIなど約100種類のAIモデルと連携できるAI SDKおよびAI Gateway、高同時実行・低レイテンシ・コスト効率を実現するFluid compute(アクティブCPU課金)、自律的なアクションを支援するツール群などが含まれる。 AI Gatewayは、ベンダーロックインを排除する統一エンドポイントを提供し、開発者はわずか1行のコードでモデルを切り替え可能。レイテンシやコストの可視化、プロバイダー障害時の自動フェイルオーバーもサポートする。

従来のサーバーレスプラットフォームは、AI推論や即時スケールが求められるエージェントなど、I/Oバウンドなワークロードへの対応が苦手だった。Fluid computeはこの課題を解決し、従来の「1リクエスト=1インスタンス」モデルから脱却。呼び出しごとに個別インスタンスを立ち上げるのではなく、複数リクエストで基盤リソースを共有するインテリジェントなオーケストレーションを実現する。これにより、導入企業では最大85%のコスト削減が報告されている。

セキュリティ面では、Vercel Sandboxが信頼できないコードのための分離・一時的な実行環境を提供。Node.jsやPythonに対応し、数百の同時環境へスケール可能。開発者は安全なコンテナ内でログのストリーミング、依存関係のインストール、ランタイム制御ができ、最大45分間の実行が許可されている。

このリリースはVercelプラットフォーム進化の大きな一歩であり、Anthropicなど他のAIプロバイダーが開発者向けツールの利用制限を強化する中での発表となった。 実際、Anthropicは7月14日よりClaude Codeの利用上限を突如厳格化し、特に月額200ドルのMaxプラン利用者に影響。ユーザーは「Claude usage limit reached」という曖昧なエラーメッセージに直面し、事前告知もなかった。 VercelのAI Cloudは、AI開発エコシステムが急速に進化する中、AI技術を活用するチームにとって効率的なソリューションを提供し、同社を主要インフラプロバイダーとして位置付けるものだ。

Source: Aidevroundup

Latest News