menu
close

Google rozszerza funkcje wizualne Gemini Live na użytkowników iPhone’ów

Google zakończyło wdrażanie możliwości udostępniania obrazu z kamery oraz ekranu w Gemini Live dla wszystkich użytkowników iOS, po wcześniejszej premierze na Androidzie. Dzięki temu właściciele iPhone’ów mogą teraz wizualnie komunikować się z asystentem AI Google, pokazując mu obraz z kamery lub udostępniając ekran podczas rozmów. W najbliższych tygodniach Gemini Live zintegruje się także z Mapami Google, Kalendarzem, Zadaniami i Keep, umożliwiając podejmowanie działań w trakcie konwersacji.
Google rozszerza funkcje wizualne Gemini Live na użytkowników iPhone’ów

Google oficjalnie zakończyło wdrażanie funkcji udostępniania obrazu z kamery i ekranu w Gemini Live dla wszystkich użytkowników iOS, co stanowi istotne rozszerzenie możliwości wizualnej interakcji z asystentem AI poza urządzenia z Androidem.

Po raz pierwszy zapowiedziana podczas Google I/O 2025 w maju, funkcja ta była stopniowo udostępniana użytkownikom iPhone’ów i iPadów w ciągu ostatnich kilku tygodni. Od 13 czerwca jest już szeroko dostępna dla wszystkich użytkowników aplikacji Gemini na iOS, niezależnie od tego, czy korzystają z płatnych planów AI Google, czy z wersji darmowej.

Nowe możliwości całkowicie zmieniają sposób, w jaki użytkownicy iPhone’ów mogą korzystać z asystenta AI Google. Po stuknięciu w ikonę fali dźwiękowej w aplikacji Gemini pojawiają się dwa nowe przyciski w interfejsie Live: jeden do udostępniania obrazu z kamery, drugi do udostępniania ekranu. Funkcja kamery uruchamia podgląd, dzięki któremu użytkownik może skierować telefon na obiekty, sceny lub tekst w rzeczywistym świecie i na bieżąco omawiać to, co widzi, z Gemini. Z kolei udostępnianie ekranu pozwala przeglądać strony internetowe, porównywać produkty czy analizować dokumenty, otrzymując jednocześnie wsparcie i podpowiedzi oparte na AI.

To wizualne rozszerzenie jest częścią szerszej strategii Google, mającej na celu głębszą integrację Gemini z codziennymi aktywnościami. W najbliższych tygodniach Google wdroży integrację z Mapami, Kalendarzem, Zadaniami i Keep, co pozwoli użytkownikom wykonywać działania bezpośrednio z poziomu rozmów w Gemini Live. Przykładowo, będzie można omówić plany na kolację i natychmiast utworzyć wydarzenie w kalendarzu lub zapytać o pobliskie restauracje i otrzymać aktualne informacje z Map Google.

Funkcja ta wykorzystuje technologię Project Astra od Google DeepMind, która umożliwia Gemini rozumienie i reagowanie na kontekst wizualny. Użytkownicy Androida mają dostęp do tych możliwości już od marca (najpierw na urządzeniach Pixel 9 i Samsung Galaxy S25, a następnie na wszystkich urządzeniach z Androidem), a wdrożenie na iOS dopełnia wizji Google dotyczącej wieloplatformowych funkcji wizualnych Gemini.

Google zapowiada, że planuje kolejne integracje w ramach ekosystemu Google, wykraczające poza początkowe cztery aplikacje, kontynuując rozwój Gemini jako coraz bardziej osobistego i proaktywnego asystenta AI.

Source:

Latest News