قامت شركة DeepSeek الصينية الناشئة في مجال الذكاء الاصطناعي بترقية نموذجها المفتوح المصدر للاستدلال بشكل كبير عبر إصدار R1-0528، ليقترب أداؤه من رواد الصناعة مثل o3 من OpenAI وGemini 2.5 Pro من Google.
تمثل هذه الترقية تقدمًا كبيرًا في قدرات الاستدلال لدى DeepSeek من خلال زيادة الموارد الحسابية وتحسين الخوارزميات. أظهرت اختبارات الأداء تحسنًا ملحوظًا في الاستدلال الرياضي، حيث ارتفعت الدقة في اختبار الرياضيات AIME 2025 من 70% إلى 87.5%. ويعود هذا التحسن إلى زيادة عمق الاستدلال، إذ أصبح النموذج يستخدم في المتوسط 23,000 رمز لكل سؤال مقارنة بـ 12,000 سابقًا.
وبالإضافة إلى التحسينات الرياضية، يقدم R1-0528 العديد من الميزات المطوّرة التي تجعله أكثر ملاءمة للمطورين. يدعم النموذج الآن أوامر النظام، واستدعاء الدوال، وإخراج JSON، مما يسهل دمجه في التطبيقات. كما انخفض معدل الهلوسة بنسبة تتراوح بين 45-50% في مهام إعادة الصياغة والتلخيص، ويوفر دعمًا أفضل لبرمجة "vibe"، حيث يمكن للمطورين استخدام اللغة الطبيعية لتوليد الشيفرة البرمجية.
وفي تطور ملحوظ للمستخدمين ذوي الموارد المحدودة، أطلقت DeepSeek أيضًا إصدارًا مصغرًا باسم DeepSeek-R1-0528-Qwen3-8B. تم تطوير هذا النموذج عبر ضبط نموذج Qwen3 8B من Alibaba بأنماط الاستدلال المستخلصة من R1-0528 الكامل، ويمكن تشغيله على وحدة معالجة رسومات واحدة من الفئة الاستهلاكية، مع تفوقه على Gemini 2.5 Flash من Google في بعض اختبارات الرياضيات واقترابه من نموذج Phi 4 reasoning plus من Microsoft.
وكما في الإصدارات السابقة، يتوفر R1-0528 بموجب ترخيص MIT المرن، مما يسمح بالاستخدام التجاري والتخصيص. وتوفر شركات الحوسبة السحابية الكبرى مثل Amazon Web Services وMicrosoft Azure الآن نماذج DeepSeek لعملائها، مع عزلها عن الخوادم الصينية لضمان خصوصية البيانات.
تعزز هذه الإصدارة مكانة DeepSeek وMeta كرواد في مجال الذكاء الاصطناعي مفتوح المصدر، حيث يقدمان بدائل قوية للنماذج الاحتكارية من OpenAI وGoogle وMicrosoft وAnthropic، وبتكلفة حسابية أقل بكثير.