구글 딥마인드는 기존의 자동회귀 언어 모델과는 완전히 다른 혁신적 AI 텍스트 생성 방식인 제미니 디퓨전(Gemini Diffusion)을 선보였다.
기존 모델이 텍스트를 한 번에 한 토큰씩 순차적으로 생성하는 것과 달리, 제미니 디퓨전은 주로 이미지와 비디오 생성에 사용되던 디퓨전 기술을 도입해 무작위 노이즈를 반복적으로 정제하며 일관성 있는 텍스트를 만들어낸다. 딥마인드 연구진에 따르면 이 새로운 방식 덕분에 모델은 초당 최대 2,000토큰이라는 놀라운 속도로 콘텐츠를 생성할 수 있다.
구글은 공식 발표에서 "텍스트를 직접 예측하는 대신, 노이즈를 단계별로 정제하며 출력을 생성하는 방법을 학습한다"며 "이로 인해 매우 빠르게 해답을 반복적으로 도출하고, 생성 과정에서 오류를 수정할 수 있다"고 설명했다.
현재 대기자 명단을 통해 제공되는 실험적 데모는 이 기술이 구글의 기존 모델과 동등한 코딩 성능을 유지하면서도 생성 시간을 획기적으로 단축할 수 있음을 보여준다. 벤치마크 테스트에서 제미니 디퓨전은 HumanEval, MBPP와 같은 프로그래밍 과제에서 제미니 2.0 Flash-Lite와 거의 동일한 성능을 기록했다.
구글 딥마인드의 연구 및 딥러닝 부문 부사장이자 제미니 프로젝트 공동 책임자인 오리올 비냐스(Oriol Vinyals)는 이번 공개를 개인적으로도 큰 이정표라며, "데모가 너무 빨라서 영상을 시청 가능하게 만들기 위해 속도를 늦춰야 했다"고 밝혔다.
한편, 구글은 제미니 2.5 라인업에도 새로운 기능을 추가했다. '생각 예산(Thinking Budgets)'이 적용된 제미니 2.5 Flash를 출시해 개발자들이 AI의 추론 범위를 전례 없이 세밀하게 제어할 수 있도록 했다. 이 기능을 통해 사용자는 모델의 추론 과정에 사용할 토큰 한도(최대 24,576토큰)를 설정해 품질, 지연 시간, 비용 간의 균형을 맞출 수 있다.
구글은 곧 제미니 2.5 Pro에도 생각 예산 기능을 확대 적용할 예정이며, 몇 주 내로 일반에 공개할 계획이다. 또한 제미니 API에 Model Context Protocol(MCP) 정의에 대한 네이티브 SDK 지원을 추가해 오픈소스 도구와의 통합 및 에이전트형 애플리케이션 개발을 더욱 쉽게 만들었다.
이러한 혁신들은 구글이 AI를 더욱 효율적이고, 제어 가능하며, 개발자에게 접근성 높은 기술로 발전시키는 동시에 높은 성능 기준을 유지하려는 노력을 보여준다.