Google a officiellement finalisé le déploiement des fonctionnalités de partage de caméra et d’écran de Gemini Live à l’ensemble des utilisateurs iOS, marquant une expansion majeure des capacités d’interaction visuelle de l’assistant IA au-delà des appareils Android.
Annoncée pour la première fois lors de la conférence Google I/O 2025 en mai, cette fonctionnalité a commencé à être progressivement proposée aux utilisateurs d’iPhone et d’iPad ces dernières semaines. Depuis le 13 juin, elle est désormais accessible à tous les utilisateurs de l’application Gemini sur iOS, qu’ils soient abonnés aux offres IA premium de Google ou qu’ils utilisent la version gratuite.
Ces nouvelles capacités transforment la manière dont les utilisateurs d’iPhone peuvent interagir avec l’assistant IA de Google. En appuyant sur l’icône d’onde sonore dans l’application Gemini, les utilisateurs accèdent désormais à deux nouveaux boutons dans l’interface Live : l’un pour le partage de caméra, l’autre pour le partage d’écran. La fonction caméra ouvre un viseur permettant de pointer le téléphone vers des objets, des scènes ou du texte dans le monde réel et d’en discuter en temps réel avec Gemini. Le partage d’écran, quant à lui, permet de naviguer sur des sites web, comparer des produits ou consulter des documents tout en bénéficiant d’analyses et d’une assistance alimentées par l’IA.
Cette extension visuelle s’inscrit dans la stratégie plus large de Google visant à intégrer Gemini plus profondément dans les activités quotidiennes. Dans les prochaines semaines, Google déploiera l’intégration avec Maps, Agenda, Tasks et Keep, permettant aux utilisateurs d’effectuer des actions directement depuis les conversations Gemini Live. Par exemple, il sera possible de discuter de projets de dîner et de demander à Gemini de créer instantanément un événement dans l’agenda, ou encore de s’informer sur les restaurants à proximité et d’obtenir des informations en temps réel via Google Maps.
Cette fonctionnalité s’appuie sur la technologie Project Astra de Google DeepMind, qui permet à Gemini de comprendre et de répondre au contexte visuel. Si les utilisateurs Android bénéficient de ces capacités depuis mars (d’abord sur les Pixel 9 et Samsung Galaxy S25 avant une extension à tous les appareils Android), ce déploiement sur iOS concrétise la vision multiplateforme de Google pour les fonctionnalités visuelles de Gemini.
Google a indiqué que d’autres connexions avec l’écosystème Google sont prévues au-delà des quatre premières applications, l’entreprise continuant de positionner Gemini comme un assistant IA toujours plus personnel et proactif.