طورت NVIDIA Research تقنية ذكاء اصطناعي ثورية من شأنها تغيير طريقة إنتاج المؤثرات البصرية في صناعات السينما والألعاب. يمثل DiffusionRenderer، الذي تم عرضه في مؤتمر CVPR 2025، تحولًا جذريًا في الرسوميات الحاسوبية من خلال دمج عمليتي العرض العكسي والأمامي—واللتين كانتا منفصلتين تقليديًا—ضمن إطار عصبي موحد.
يعمل النظام عبر نهج من مرحلتين مدعوم بنماذج الانتشار الخاصة بالفيديو. أولاً، يقوم العارض العصبي العكسي بتحليل لقطات الفيديو RGB العادية ويقدّر بذكاء الخصائص الجوهرية للمشهد، مولدًا بيانات أساسية (G-buffers) تصف الهندسة (العمق، السطوح) والمواد (اللون، الخشونة، المعدنية) على مستوى البكسل. بعد ذلك، يقوم العارض العصبي الأمامي بإنشاء صور واقعية من هذه البيانات دون الحاجة لمحاكاة نقل الضوء بشكل صريح.
ما يجعل DiffusionRenderer ثوريًا هو أنه يلغي الحاجة إلى تمثيلات ثلاثية الأبعاد دقيقة للمشهد وتتبع الأشعة المكلف حسابيًا الذي تتطلبه تقنيات العرض الفيزيائي التقليدية (PBR). تقول سانيا فيدلر، نائب رئيس أبحاث الذكاء الاصطناعي في NVIDIA: "يعتمد العرض الفيزيائي الكلاسيكي على هندسة ثلاثية الأبعاد دقيقة وخصائص مواد عالية الجودة وظروف إضاءة يصعب غالبًا الحصول عليها في الواقع".
بالنسبة لصناع الأفلام المستقلين والاستوديوهات الصغيرة، تمثل هذه التقنية ديمقراطية حقيقية في مجال المؤثرات البصرية المتقدمة. يمكن للمبدعين الآن تصوير فيديو RGB عادي واستخدام DiffusionRenderer لإضافة عناصر CGI تلقي ظلالاً وانعكاسات واقعية—دون الحاجة لأنظمة إضاءة معقدة أو مسح LiDAR أو معدات متخصصة. كما يمكن للنظام إعادة إضاءة المشاهد ديناميكيًا، وتغيير المواد، وإدراج عناصر افتراضية بسلاسة في اللقطات الحقيقية.
منذ تطويره الأولي، دمجت NVIDIA DiffusionRenderer مع نماذج Cosmos Predict-1 الأساسية، محققة نتائج بجودة أعلى بكثير. التقنية متاحة بموجب رخصة Apache 2.0 ورخصة النماذج المفتوحة من NVIDIA، مع إمكانية الوصول إلى الشيفرة وأوزان النماذج عبر GitHub. ومع استمرار تطور الدقة والمدى الديناميكي، يُتوقع أن يصبح DiffusionRenderer أداة أساسية للمبدعين على جميع مستويات الميزانية، مما سيغير جذريًا أساليب السرد البصري في السينما والإعلانات وتطوير الألعاب.