menu
close

Google、Project Astraの視覚的能力をGemini Liveに統合

Googleは、Project Astraの高度な視覚理解機能をGemini Liveに統合し、AIアシスタントがユーザーのスマートフォンのカメラや画面を通じて世界を「見て」解釈できるようにしました。この大幅なアップグレードはGoogle I/O 2025で発表され、Geminiが会話中に視覚情報をリアルタイムで解析し、支援を提供できるようになりました。これまで有料ユーザー限定だったこの機能は、AndroidおよびiOSの全ユーザーに無料で提供され、Googleが目指す「ユニバーサルAIアシスタント」への大きな一歩となります。
Google、Project Astraの視覚的能力をGemini Liveに統合

Googleは、AIアシスタントの視覚認識能力を大幅に向上させるべく、Project Astraの機能をGemini Liveに統合したことを、2025年5月20日のGoogle I/O 2025で発表しました。

Project Astraは、2024年のGoogle I/Oで初めて発表され、Google DeepMindが掲げる「日常生活で本当に役立つユニバーサルAIアシスタント」のビジョンを体現しています。最終的な目標は、Geminiアプリを日常的なタスクの実行や事務作業の自動化、パーソナライズされた提案の提供など、ユーザーの生産性向上と生活の充実を支援するユニバーサルAIアシスタントへと進化させることです。その第一歩として、Project Astraで探求された動画理解、画面共有、メモリ機能などが導入されています。

Googleは、Project Astraが持つ低遅延かつマルチモーダルなAI体験を、検索やGemini AIアプリ、サードパーティ開発者向け製品など、さまざまな新しい体験に活用すると発表しました。特に注目すべきは、Google検索の新機能「Search Live」をProject Astraが支えている点です。AIモードやLens利用時に「Live」ボタンを押すと、スマートフォンのカメラを通じて見ているものについて質問できます。Project Astraはライブ映像と音声をAIモデルにストリーミングし、ほぼ遅延なく回答を返します。

Geminiアプリでは、Project Astraのリアルタイム動画および画面共有機能が全ユーザーに提供されます。これまでGemini Liveの低遅延会話はProject Astraによって実現されていましたが、視覚入力機能は有料ユーザーに限定されていました。Gemini Liveは、壊れた家電のトラブルシューティングやパーソナライズされた買い物アドバイスなど、従来のテキストベースのやり取りよりも平均して5倍長い会話が行われるなど、ユーザーから高い評価を得ています。このため、Googleは本日より、カメラおよび画面共有機能を含むGemini LiveをAndroidおよびiOSの全ユーザーに無料で提供開始しました。

実際の活用例も印象的です。Googleは、Gemini Liveが日常の活動を支援する様子を動画でデモンストレーションしました。例えば、自転車の修理をしているユーザーがProject Astraにマニュアルを探すよう依頼すると、AIがウェブを検索して該当ドキュメントを見つけ、次に何を見たいかを尋ねます。ユーザーが「ブレーキに関するセクションまでスクロールして」と指示すると、Project Astraはその通りに画面を操作し、必要な情報を見つけ出します。このようなエージェント的な動作により、Project Astraはウェブ上やドキュメント内の特定情報へのアクセスも可能になることが示唆されています。

この1年間、Googleはこれらの機能をより多くのユーザーが体験できるようGemini Liveに統合してきました。今後も、より自然な音声出力(ネイティブオーディオ)、メモリ機能の強化、PC操作機能の追加など、さらなるイノベーションを追求しています。Googleは現在、信頼できるテスターからフィードバックを集めつつ、これらの機能をGemini Liveや検索の新体験、開発者向けLive API、さらにはメガネのような新しいデバイスにも展開していく予定です。

この統合は、AIアシスタントがより文脈を理解し、日常のさまざまな場面で役立つ存在へと進化する大きな前進です。テクノロジーがユーザーの環境をより深く理解し、より適切な支援を提供できるようになります。

Source:

Latest News