تواصل شركة ديب سيك الصينية الناشئة في مجال الذكاء الاصطناعي إحداث تغييرات جذرية في مشهد الذكاء الاصطناعي العالمي من خلال أحدث ابتكاراتها في تحسين النماذج. ففي 29 مايو، كشفت الشركة أن نسخة من نموذجها المحسن R1-0528 للمنطق والاستدلال قد استُخدمت لتعزيز نموذج Qwen 3 8B Base الخاص بعلي بابا عبر عملية تُعرف باسم التقطير المعرفي.
تتيح تقنية التقطير نقل المعرفة من نموذج أكثر تطوراً إلى نموذج أصغر حجماً، حيث تمكنت ديب سيك من نقل عمليات الاستدلال من نموذجها R1-0528 إلى نظام علي بابا. ووفقاً لإعلان ديب سيك، أسفرت هذه العملية عن تحسينات في أداء نموذج Qwen 3 تجاوزت 10%.
وقالت ديب سيك في بيانها: "نعتقد أن سلسلة التفكير المستخلصة من DeepSeek-R1-0528 ستحظى بأهمية كبيرة سواء في الأبحاث الأكاديمية أو التطبيقات العملية". وكانت الشركة قد أطلقت سابقاً عدة نماذج مقطرة مبنية على معماريتي Qwen وLlama من Meta، بأحجام تتراوح بين 1.5 مليار إلى 70 مليار معامل.
وقد حظيت منهجية ديب سيك في تطوير الذكاء الاصطناعي باهتمام واسع منذ يناير الماضي، عندما أظهر نموذج R1 الخاص بها أداءً مماثلاً لنماذج OpenAI وGoogle ولكن بتكلفة حوسبة أقل بكثير. ونجاح الشركة تحدى الفكرة السائدة بأن الذكاء الاصطناعي المتقدم يتطلب موارد حوسبة واستثمارات ضخمة.
ورغم القيود الأمريكية على تصدير الشرائح المتقدمة للذكاء الاصطناعي، تمكنت ديب سيك من تحسين نماذجها لتعمل بكفاءة على أجهزة منخفضة الطاقة ومسموح بتصديرها. وقد دفع هذا النهج المنافسين إلى إعادة النظر في اعتمادهم على العتاد، وأثر على ديناميكيات السوق في قطاع الذكاء الاصطناعي.
ويقرّب التحديث الأخير R1-0528 نموذج ديب سيك من أداء نماذج الاستدلال o3 من OpenAI وGemini 2.5 Pro من Google، مع تحسينات ملحوظة في عمق الاستدلال، وقدرات الاستنتاج، وتقليل الهلوسة. وتواصل الشركة بابتكاراتها ونهجها المفتوح المصدر إعادة تشكيل التوقعات حول تطوير ونشر نماذج الذكاء الاصطناعي بكفاءة عالية.