Google a officiellement terminé le déploiement des fonctionnalités de partage de caméra et d’écran de Gemini Live auprès de l’ensemble des utilisateurs iOS, marquant une expansion majeure des capacités d’interaction visuelle de l’assistant IA au-delà des appareils Android.
Annoncée pour la première fois lors de Google I/O 2025 en mai, cette nouveauté a commencé à être déployée progressivement auprès des utilisateurs d’iPhone et d’iPad au cours des dernières semaines. Depuis le 13 juin, la fonctionnalité est désormais accessible à tous les utilisateurs de l’application Gemini sur iOS, qu’ils soient abonnés aux forfaits IA premium de Google ou qu’ils utilisent la version gratuite.
Ces nouvelles capacités transforment la façon dont les utilisateurs d’iPhone peuvent interagir avec l’assistant IA de Google. En appuyant sur l’icône d’onde sonore dans l’application Gemini, les utilisateurs accèdent maintenant à deux nouveaux boutons dans l’interface Live : un pour le partage de caméra et un autre pour le partage d’écran. La fonction caméra ouvre un viseur qui permet aux utilisateurs de pointer leur téléphone vers des objets, des scènes ou du texte dans le monde réel et d’en discuter en temps réel avec Gemini. De son côté, le partage d’écran permet de naviguer sur des sites web, comparer des produits ou consulter des documents tout en bénéficiant d’analyses et d’assistance propulsées par l’IA.
Cette expansion visuelle s’inscrit dans la stratégie plus large de Google visant à intégrer Gemini de façon plus profonde dans les activités quotidiennes. Au cours des prochaines semaines, Google déploiera l’intégration avec Maps, Calendrier, Tâches et Keep, permettant aux utilisateurs d’effectuer des actions directement depuis les conversations Gemini Live. Par exemple, il sera possible de discuter de plans pour un souper et de demander à Gemini de créer instantanément un événement dans le calendrier, ou encore de s’informer sur les restaurants à proximité et d’obtenir des informations en temps réel via Google Maps.
Cette fonctionnalité repose sur la technologie Project Astra de Google DeepMind, qui permet à Gemini de comprendre et de répondre au contexte visuel. Alors que les utilisateurs Android bénéficient de ces capacités depuis mars (d’abord sur les Pixel 9 et Samsung Galaxy S25, puis sur l’ensemble des appareils Android), le déploiement sur iOS complète la vision multiplateforme de Google pour les fonctionnalités visuelles de Gemini.
Google a indiqué que d’autres intégrations avec l’écosystème Google sont prévues au-delà des quatre premières applications, alors que l’entreprise continue de positionner Gemini comme un assistant IA de plus en plus personnel et proactif.