Googleは、ユーザーのために自律的に行動できるAIのビジョンを加速させており、Google I/O 2025で発表された最新のProject Astraの進化がその象徴となっている。
Project Astraは、Googleが「日常生活で役立つユニバーサルAIエージェント」と位置付けるプロジェクトで、初公開時から大きく進化を遂げてきた。今回の発表では、文脈を理解し、追加の指示なしで行動できる高度なエージェント機能が披露された。特に印象的だったのは、スマートフォンのカメラを手書きの招待状に向けると、AIが自動的にイベントをカレンダーに追加するデモだ。
Astraチームの共同リーダーであるGreg Wayne氏は「Astraは、目の前の出来事に応じて話しかけるタイミングを自ら選べる」と説明し、従来の受動的なアシスタントから能動的なエージェントへの転換を強調した。これは、Googleがオンラインでの情報アクセスやインタラクションの主導権を維持するための重要な戦略的進化である。
さらに、GoogleはGemini搭載の拡張現実(AR)機能を備えた新しいAndroid XRグラスも発表。SamsungやGentle Monster、Warby Parkerといったファッションブランドと共同開発したこのグラスは、ライブ翻訳や視界内への情報表示が可能だ。GoogleはWarby Parkerとの提携に最大1億5000万ドルを投資するなど、この分野への本気度を示している。
加えて、検索のAIモードも拡張され、ユーザーのメールから情報を取得してパーソナライズされた検索結果を提供したり、バーチャル試着機能を導入したりしている。ユーザーが自身の写真を1枚アップロードするだけで、数十億点のアパレルアイテムが自分の体型にどのようにフィットするかをAIがシミュレーション。素材のたわみや伸縮も考慮される。さらに、エージェント型のチェックアウト機能により、指定した価格まで値下がりした商品を自動購入することも可能だ。
これらの進化は、Googleがエコシステム全体にエージェント型AIを統合し、日常のテクノロジーとの関わり方を根本から変革しようとする包括的な戦略の一端を示している。