구글은 2025년 5월 20일 Google I/O에서 Project Astra의 기능을 Gemini Live에 통합하며 AI 어시스턴트의 시각적 인식 능력을 한 단계 끌어올렸다고 발표했다.
Project Astra는 2024년 Google I/O에서 처음 공개된 바 있으며, Google DeepMind가 추구하는 '일상생활에서 진정으로 도움이 되는 범용 AI 어시스턴트'의 비전을 담고 있다. 궁극적으로 Gemini 앱을 일상 업무 수행, 행정 처리, 개인화된 추천 제공 등 사용자의 생산성과 삶의 질을 높이는 범용 AI 어시스턴트로 발전시키는 것이 목표다. 이를 위해 Project Astra에서 처음 선보인 영상 이해, 화면 공유, 메모리 등 다양한 기능이 적용되고 있다.
구글은 Project Astra가 자사의 저지연 멀티모달 AI 경험으로, 검색, Gemini AI 앱, 그리고 서드파티 개발자 제품 등 다양한 영역에서 새로운 경험을 제공할 것이라고 밝혔다. 특히, Project Astra는 Google 검색의 새로운 Search Live 기능을 지원한다. 사용자가 AI 모드나 렌즈를 사용할 때 'Live' 버튼을 누르면 스마트폰 카메라에 비치는 것에 대해 질문할 수 있다. Project Astra는 실시간 영상과 오디오를 AI 모델에 스트리밍하고, 거의 지연 없이 답변을 제공한다.
Gemini 앱에서는 Project Astra의 실시간 영상 및 화면 공유 기능이 모든 사용자에게 제공된다. 기존에는 Gemini Live의 저지연 대화 기능만 무료였고, 시각적 입력은 유료 구독자에게만 제공됐으나, 이제 모든 Android와 iOS 사용자에게 무료로 개방됐다. 구글에 따르면 Gemini Live는 텍스트 기반 대화보다 평균 5배 더 긴 대화가 이루어질 정도로 인기가 높으며, 고장난 가전제품 문제 해결이나 맞춤형 쇼핑 조언 등 다양한 방식으로 도움을 받을 수 있다.
실제 적용 사례도 인상적이다. 구글은 Project Astra의 기능을 시연하며, Gemini Live가 자전거 수리 등 일상 활동을 돕는 영상을 공개했다. 영상에서 사용자가 Project Astra에 자전거 매뉴얼을 찾아달라고 요청하자, AI가 웹을 검색해 문서를 찾고, 사용자가 원하는 부분을 물어본다. 사용자가 브레이크 관련 섹션을 찾아달라고 지시하자, Project Astra가 문서를 스크롤해 해당 정보를 찾아준다. 이러한 에이전트형 행동은 Project Astra가 온라인 문서 내 특정 정보까지도 접근할 수 있음을 시사한다.
지난 1년간 구글은 이러한 기능을 더 많은 사용자가 Gemini Live에서 경험할 수 있도록 통합해왔다. 구글은 음성 출력의 자연스러움 향상, 메모리 개선, 컴퓨터 제어 등 새로운 혁신도 지속적으로 연구 중이다. 현재 신뢰할 수 있는 테스터의 피드백을 수집해 Gemini Live, 검색의 새로운 경험, 개발자를 위한 Live API, 스마트글라스 등 새로운 폼팩터에도 적용할 계획이다.
이번 통합은 AI 어시스턴트가 일상에서 더 맥락을 이해하고 유용해지는 중요한 진전으로, 기술이 사용자의 환경을 더 잘 이해하고 관련성 높은 도움을 제공할 수 있게 한다.