구글은 2025년 5월 15일(목), 안드로이드와 크롬을 위한 AI 기반 접근성 기능을 대거 발표하며 시각장애인을 위한 디지털 경험을 크게 향상시켰다.
가장 주목할 만한 업데이트는 안드로이드의 스크린 리더인 톡백(TalkBack)에 적용됐다. 이제 톡백은 젬미니(Gemini) AI를 활용해 더욱 상호작용적인 지원을 제공한다. 기존에는 대체 텍스트가 없는 이미지에 대해 AI가 설명을 생성해줬지만, 이제 사용자는 이미지에 대해 구체적인 질문을 하고 상세한 답변을 받을 수 있다. 예를 들어, 기타 사진을 받았을 때 브랜드나 색상 등 세부 정보를 물어볼 수 있다. 이 기능은 개별 이미지를 넘어 전체 화면으로 확장되어, 쇼핑 시 제품 소재나 할인 여부 등 다양한 정보를 질문할 수 있다.
익스프레시브 캡션(Expressive Captions) 기능도 한층 강화됐다. 이제 단순히 사람이 말하는 내용을 자막으로 제공하는 것을 넘어, 길게 늘여 말하는 단어(예: "아마아아아징" 또는 "노오오오오") 등 감정과 강조까지 인식해 자막에 반영한다. 휘파람, 목 가다듬기 등 다양한 소리도 추가 라벨로 표시되어 자막 경험이 더욱 풍부해졌다. 이 업데이트는 미국, 영국, 캐나다, 호주 등 영어권 국가의 안드로이드 15 이상 기기에서 순차적으로 제공된다.
크롬 사용자들을 위해서는 광학 문자 인식(OCR) 기술이 도입됐다. 이로써 스캔된 PDF 문서도 자동으로 처리되어, 스크린 리더가 접근할 수 없었던 문서까지 읽고, 텍스트를 하이라이트, 복사, 검색할 수 있게 됐다. 또한 안드로이드용 크롬에는 페이지 줌(Page Zoom) 기능이 추가되어, 웹페이지 레이아웃을 깨뜨리지 않고 텍스트 크기만 확대할 수 있다.
이러한 발전은 AI가 어떻게 더 포용적인 기술 환경을 만드는 데 활용될 수 있는지 보여준다. 구글은 젬미니의 역량을 접근성 도구에 직접 통합함으로써, 시각장애인이 하루 평균 90개의 라벨 없는 이미지를 접한다는 자사 조사 결과에 대응하고 있다. 구글은 다양한 발화 패턴을 인식하는 음성 인식 도구 개발을 돕기 위해 Project Euphonia 리소스를 개발자에게 공개하는 등 접근성 확대 노력을 지속하고 있다.