구글이 최신 AI 모델인 Gemini 2.5 Flash를 개발자와 기업에 정식으로 공개하며, AI 코딩 역량에서 중요한 진전을 이뤘다.
이번 신모델은 4월부터 프리뷰로 제공되어 왔으며, 여러 측면에서 대폭적인 개선을 이뤘다. 구글 딥마인드에 따르면, Gemini 2.5 Flash는 추론, 멀티모달리티, 코드 생성, 장문 컨텍스트 처리 등에서 강화되었으며, 평가 시 토큰 사용량이 20~30% 줄어들어 더욱 효율적이다.
Gemini 2.5 Flash의 가장 큰 특징은 구글의 첫 'Flash' 모델로서 '사고(thinking)' 기능을 탑재했다는 점이다. 이 기능을 통해 모델은 응답 전에 문제를 추론할 수 있으며, 개발자는 '사고 예산(thinking budget)'을 조절해 품질, 비용, 지연 시간의 균형을 맞출 수 있다. 사고 기능을 끈 상태에서도 이전 버전과 동일한 빠른 속도를 유지하면서 성능이 향상된다.
특히 코딩 역량이 주목할 만하다. Gemini 2.5 Pro가 WebDev Arena 리더보드에서 ELO 1415점으로 코딩 벤치마크를 선도하는 반면, 2.5 Flash 역시 코드 생성과 복잡한 추론에서 큰 발전을 보였다. 이는 웹 애플리케이션부터 데이터 처리 작업까지 다양한 개발자에게 유용하다.
코딩 외에도, 이 모델은 더욱 자연스러운 대화 경험을 위한 네이티브 오디오 출력, 24개 언어에서 다중 화자를 지원하는 텍스트-투-스피치 등 여러 신규 기능을 제공한다. 또한 구글은 Project Mariner의 컴퓨터 사용 기능을 Gemini API와 Vertex AI에 도입해, 모델이 컴퓨터 인터페이스와 상호작용할 수 있도록 했다.
이번 출시는 Flash, Pro, 그리고 새롭게 추가된 Flash-Lite까지 포함하는 Gemini 2.5 제품군 확장 전략의 일환이다. 세 모델 모두 100만 토큰 컨텍스트 윈도우와 멀티모달 입력 기능을 제공하지만, 각기 다른 용도와 효율성 요구에 맞게 최적화되어 있다.
개발자는 Google AI Studio에서 Gemini 2.5 Flash에 접근할 수 있으며, 기업은 Vertex AI를 통해 배포할 수 있다. 또한 Gemini 앱을 통해 모든 사용자가 고급 AI 기능을 경험할 수 있어, 구글 생태계 전반에 걸쳐 AI 접근성이 한층 높아졌다.