menu
close

Google розширює візуальні функції Gemini Live для користувачів iPhone

Google завершила розгортання можливостей камери та спільного доступу до екрана для Gemini Live для всіх користувачів iOS, після попереднього запуску на Android. Тепер власники iPhone можуть взаємодіяти з AI-асистентом Google, показуючи йому те, що бачать через камеру, або ділячись екраном під час розмови. У найближчі тижні Gemini Live також інтегрується з Google Maps, Календарем, Завданнями та Keep, дозволяючи виконувати дії прямо під час спілкування.
Google розширює візуальні функції Gemini Live для користувачів iPhone

Google офіційно завершила розгортання можливостей камери та спільного доступу до екрана в Gemini Live для всіх користувачів iOS, що стало значним розширенням візуальних функцій взаємодії AI-асистента поза межами пристроїв Android.

Вперше про цю функцію було оголошено на Google I/O 2025 у травні, і протягом останніх тижнів вона поступово ставала доступною для користувачів iPhone та iPad. Станом на 13 червня функціонал вже доступний усім користувачам додатка Gemini на iOS — незалежно від того, чи мають вони підписку на преміум-плани Google AI, чи користуються безкоштовною версією.

Нові можливості змінюють спосіб взаємодії користувачів iPhone з AI-асистентом Google. Натиснувши на іконку звукової хвилі у додатку Gemini, користувачі отримують доступ до двох нових кнопок у Live-інтерфейсі: для спільного використання камери та для спільного доступу до екрана. Функція камери відкриває видошукач, що дозволяє навести телефон на об'єкти, сцени чи текст у реальному світі й обговорювати побачене з Gemini у режимі реального часу. Водночас спільний доступ до екрана дає змогу переглядати вебсайти, порівнювати товари або переглядати документи, отримуючи підказки та допомогу від AI.

Це візуальне розширення є частиною ширшої стратегії Google щодо глибшої інтеграції Gemini у повсякденні завдання. У найближчі тижні Google додасть інтеграцію з Maps, Календарем, Завданнями та Keep, що дозволить виконувати дії безпосередньо під час розмов у Gemini Live. Наприклад, користувачі зможуть обговорити плани на вечерю й одразу створити подію в календарі, або запитати про найближчі ресторани та отримати актуальну інформацію з Google Maps.

Функція базується на технології Project Astra від Google DeepMind, яка дозволяє Gemini розуміти та реагувати на візуальний контекст. Користувачі Android мали доступ до цих можливостей ще з березня (спочатку на Pixel 9 і Samsung Galaxy S25, а згодом — для всіх Android-пристроїв), а запуск на iOS завершує кросплатформенне бачення Google щодо візуальних можливостей Gemini.

У Google зазначають, що планується подальше розширення інтеграції з іншими додатками екосистеми Google, адже компанія прагне зробити Gemini ще більш персональним і проактивним AI-асистентом.

Source:

Latest News