중국 인공지능 스타트업 DeepSeek가 오픈소스 추론 모델의 성능을 대폭 강화한 R1-0528을 출시하며, OpenAI의 o3, Google의 Gemini 2.5 Pro 등 업계 선두주자들과 어깨를 나란히 하게 됐다.
이번 업그레이드는 연산 자원 확대와 알고리즘 최적화를 통해 DeepSeek의 추론 능력을 크게 끌어올렸다. 벤치마크 테스트 결과, 수학적 추론 정확도는 AIME 2025 수학 시험에서 70%에서 87.5%로 비약적으로 상승했다. 이는 문제당 평균 사용 토큰 수가 기존 12,000개에서 23,000개로 늘어난 심층 추론 덕분이다.
수학적 성능 개선 외에도, R1-0528은 개발자 친화적인 다양한 기능을 추가했다. 시스템 프롬프트, 함수 호출, JSON 출력 지원 등으로 애플리케이션 통합이 쉬워졌으며, 환각(hallucination) 발생률도 요약·재작성 작업에서 45~50% 감소했다. 또한, 자연어로 코드를 생성하는 '바이브 코딩(vibe coding)' 지원도 한층 강화됐다.
자원 제약이 있는 사용자들을 위해 DeepSeek는 경량화 버전인 DeepSeek-R1-0528-Qwen3-8B도 함께 공개했다. 이 모델은 Alibaba의 Qwen3 8B를 기반으로 R1-0528의 추론 패턴을 파인튜닝해 개발됐으며, 단일 소비자용 GPU에서도 구동 가능하다. 수학 벤치마크에서는 Google Gemini 2.5 Flash를 능가하고, Microsoft의 Phi 4 reasoning plus 모델에 근접한 성능을 보인다.
R1-0528은 전작과 마찬가지로 상업적 활용과 커스터마이징이 자유로운 MIT 라이선스 하에 제공된다. 현재 Amazon Web Services, Microsoft Azure 등 주요 클라우드 사업자들도 DeepSeek 모델을 고객에게 제공하고 있으며, 데이터 프라이버시를 위해 중국 서버와는 분리해 운영한다.
이번 출시로 DeepSeek는 Meta와 함께 오픈소스 AI 분야의 선두주자로 자리매김하며, OpenAI, Google, Microsoft, Anthropic 등 독점 모델에 비해 훨씬 낮은 연산 비용으로 강력한 대안을 제시하고 있다.