Googleは、Gemini Liveのカメラおよび画面共有機能をすべてのiOSユーザー向けに正式に展開完了したと発表しました。これにより、Android端末を超えて、AIアシスタントのビジュアルインタラクション機能が大幅に拡大されました。
この機能は、2025年5月のGoogle I/Oで初めて発表され、過去数週間にわたりiPhoneおよびiPadユーザー向けに段階的に提供されてきました。6月13日現在、Googleの有料AIプラン加入者だけでなく、無料版のGeminiアプリ利用者も含め、すべてのiOSユーザーがこの機能を利用できるようになっています。
新機能により、iPhoneユーザーはGoogleのAIアシスタントとのやり取り方法を大きく変えることができます。Geminiアプリ内で波形アイコンをタップすると、Liveインターフェースにカメラ共有と画面共有の2つの新しいボタンが表示されます。カメラ機能では、ファインダーを起動し、現実世界の物体や風景、テキストなどをカメラで映しながら、Geminiとリアルタイムで会話できます。一方、画面共有機能では、ウェブサイトの閲覧や商品の比較、ドキュメントの確認をしながら、AIによるインサイトやサポートを受けることが可能です。
このビジュアル機能の拡張は、Geminiを日常生活により深く統合するというGoogleの戦略の一環です。今後数週間以内に、Googleマップ、カレンダー、タスク、Keepとの連携も開始され、Gemini Liveの会話中に直接各種アクションを実行できるようになります。例えば、夕食の予定を話し合いながら即座にカレンダーイベントを作成したり、近くのレストランについて尋ねてGoogleマップからリアルタイム情報を取得したりすることが可能になります。
この機能は、Google DeepMindのProject Astra技術を活用しており、Geminiがビジュアルコンテキストを理解し応答できるようになっています。Androidユーザーは3月から(当初はPixel 9やSamsung Galaxy S25で、その後すべてのAndroid端末に拡大)これらの機能を利用できていましたが、今回のiOS展開により、Geminiのビジュアル機能におけるGoogleのクロスプラットフォーム戦略が完成しました。
Googleは、今後さらに多くのGoogleエコシステムとの連携も計画しており、Geminiをよりパーソナルで積極的なAIアシスタントとして位置付けていく方針です。