في عصر أصبح فيه التمييز بين المحتوى البشري وذلك الذي ينتجه الذكاء الاصطناعي أكثر صعوبة، كشفت جوجل عن أداة تحقق قوية جديدة خلال مؤتمر المطورين I/O 2025.
تتيح بوابة SynthID Detector للمستخدمين التعرف بسرعة على المحتوى الناتج عن الذكاء الاصطناعي من خلال فحص العلامات المائية غير المرئية التي تدمجها أنظمة الذكاء الاصطناعي الخاصة بجوجل. عند رفع صورة أو مقطع صوتي أو فيديو أو نص تم إنشاؤه باستخدام أدوات جوجل مثل Gemini أو Imagen أو Lyria أو Veo، تحدد البوابة ما إذا كان المحتوى يحتوي على علامة SynthID المائية، كما تبرز الأجزاء الأكثر احتمالاً لاحتوائها على العلامة.
تعالج هذه التقنية حاجة ملحة مع تزايد انتشار الوسائط المنتجة بالذكاء الاصطناعي على الإنترنت. ووفقاً لتقديرات حديثة، ارتفعت نسبة الفيديوهات المزيفة (Deepfakes) بنسبة 550% بين عامي 2019 و2024، كما أن نسبة كبيرة من المنشورات الأكثر مشاهدة على وسائل التواصل الاجتماعي باتت تحتوي على محتوى من إنتاج الذكاء الاصطناعي. ويظل نظام العلامات المائية في SynthID قابلاً للكشف حتى بعد تعرض المحتوى لتعديلات مثل القص أو تغيير الحجم أو غيرها من التغييرات، ما يجعله فعالاً بشكل خاص ضد محاولات إخفاء مصدر المحتوى.
وقد وسعت جوجل بالفعل نطاق تقنية SynthID خارج منظومتها من خلال شراكات استراتيجية. فقد أتاحت الشركة تقنية وسم النصوص كمصدر مفتوح، وتعاونت مع شركة NVIDIA لإضافة علامات مائية على الفيديوهات المنتجة عبر نموذج Cosmos الخاص بـ NVIDIA. بالإضافة إلى ذلك، ستتيح الشراكة مع شركة GetReal Security إمكانية التحقق الخارجي من علامات SynthID المائية، مما يساهم في بناء منظومة رقمية أكثر موثوقية.
ورغم أن أداة SynthID Detector تمثل تقدماً كبيراً في مجال التحقق من المحتوى، إلا أن لها بعض القيود. فهي تعمل بشكل أساسي مع نماذج الذكاء الاصطناعي من جوجل أو تلك التي تستخدم تقنية العلامات المائية الخاصة بها، ما يجعل من الصعب اكتشاف محتوى منصات أخرى. كما يشير بعض النقاد إلى أن العلامات المائية لا تمنع إساءة استخدام المحتوى، بل تتيح فقط اكتشافه بعد وقوعه.
حالياً، تتوفر أداة SynthID Detector لمجموعة مختارة من المختبرين الأوائل، ويمكن للصحفيين والمتخصصين في الإعلام والباحثين والمعلمين الانضمام إلى قائمة الانتظار للحصول على حق الوصول. ومن المتوقع أن يتم طرح الأداة بشكل أوسع خلال الأسابيع المقبلة مع استمرار جوجل في تطوير هذه الأداة المهمة في مواجهة المعلومات المضللة الناتجة عن الذكاء الاصطناعي.