menu
close

Pembaruan R1 DeepSeek Tantang Raksasa AI dengan Kemampuan Penalaran yang Ditingkatkan

Startup AI asal Tiongkok, DeepSeek, merilis R1-0528, pembaruan signifikan pada model penalaran open-source mereka yang kini mampu menyaingi produk-produk proprietary dari OpenAI dan Google. Model terbaru ini menunjukkan peningkatan akurasi matematika yang dramatis, melonjak dari 70% menjadi 87,5% pada tes AIME 2025 dengan melipatgandakan kapasitas penalarannya. DeepSeek juga meluncurkan versi distilled berukuran kecil dengan 8 miliar parameter yang dapat dijalankan pada satu GPU, namun tetap mempertahankan performa impresif.
Pembaruan R1 DeepSeek Tantang Raksasa AI dengan Kemampuan Penalaran yang Ditingkatkan

DeepSeek, startup kecerdasan buatan asal Tiongkok, telah melakukan peningkatan besar pada model penalaran open-source mereka melalui peluncuran R1-0528, sehingga performanya kini hampir setara dengan para pemimpin industri seperti o3 dari OpenAI dan Gemini 2.5 Pro dari Google.

Pembaruan ini merupakan lompatan besar dalam kemampuan penalaran DeepSeek berkat peningkatan sumber daya komputasi dan optimalisasi algoritma. Dalam uji benchmark, model ini menunjukkan peningkatan luar biasa dalam penalaran matematika, dengan akurasi pada tes matematika AIME 2025 naik dari 70% menjadi 87,5%. Peningkatan ini berasal dari kedalaman penalaran yang lebih baik, di mana model kini menggunakan rata-rata 23.000 token per soal, dibandingkan sebelumnya yang hanya 12.000.

Selain peningkatan di bidang matematika, R1-0528 juga menawarkan sejumlah fitur baru yang membuatnya lebih ramah bagi pengembang. Model ini kini mendukung system prompt, pemanggilan fungsi, dan output dalam format JSON, sehingga lebih mudah diintegrasikan ke dalam aplikasi. Tingkat halusinasi model juga berkurang secara signifikan—dilaporkan turun 45-50% pada tugas penulisan ulang dan ringkasan—serta memberikan dukungan lebih baik untuk vibe coding, di mana pengembang dapat menggunakan bahasa alami untuk menghasilkan kode.

Dalam perkembangan penting bagi pengguna dengan sumber daya terbatas, DeepSeek juga merilis versi distilled bernama DeepSeek-R1-0528-Qwen3-8B. Model ini dibuat dengan fine-tuning pada Qwen3 8B milik Alibaba menggunakan pola penalaran dari R1-0528 penuh. Versi lebih kecil ini dapat dijalankan pada satu GPU kelas konsumen, namun tetap mampu mengungguli Gemini 2.5 Flash milik Google pada beberapa benchmark matematika dan hampir menyamai model Phi 4 reasoning plus dari Microsoft.

Seperti pendahulunya, R1-0528 tersedia di bawah lisensi MIT yang permisif, memungkinkan penggunaan komersial dan kustomisasi. Penyedia cloud besar seperti Amazon Web Services dan Microsoft Azure kini menawarkan model DeepSeek kepada klien mereka, meski tetap mengisolasi dari server Tiongkok demi menjaga privasi data.

Peluncuran ini semakin menegaskan posisi DeepSeek dan Meta sebagai pemimpin di ranah AI open-source, menyediakan alternatif kuat bagi model proprietary dari OpenAI, Google, Microsoft, dan Anthropic dengan biaya komputasi yang jauh lebih rendah.

Source:

Latest News