نفذت جوجل تحديثات أمنية واسعة على عائلة نماذج الذكاء الاصطناعي Gemini 2.5، مما يجعلها أكثر النماذج أمانًا لدى الشركة حتى الآن في مواجهة تهديدات أمان الذكاء الاصطناعي المتطورة.
تكمن جوهر هذه التحسينات في نهج أمني جديد يعزز بشكل كبير حماية Gemini ضد هجمات الحقن غير المباشر للأوامر أثناء استخدام الأدوات. وتحدث هذه الهجمات عندما يتم تضمين تعليمات خبيثة داخل البيانات التي يسترجعها نموذج الذكاء الاصطناعي، مما قد يؤدي إلى تنفيذ أوامر ضارة أو تسريب معلومات حساسة.
تأتي هذه التحسينات الأمنية في الوقت الذي تستعد فيه جوجل لدمج قدرات مشروع Mariner في استخدام الحاسوب ضمن Gemini API وVertex AI. يتيح مشروع Mariner لوكلاء الذكاء الاصطناعي التحكم في متصفحات الإنترنت وأداء مهام محددة تلقائيًا، مثل تصفح المواقع والتفاعل مع عناصر الويب. وقد بدأت عدة شركات من بينها Automation Anywhere وUiPath وBrowserbase وAutotab وThe Interaction Company وCartwheel بالفعل في اختبار هذه القدرات، مع توقع إتاحة الوصول الأوسع للمطورين هذا الصيف.
تعتمد استراتيجية جوجل الأمنية لنموذج Gemini 2.5 على عدة طبقات دفاعية، من بينها الاختبار الآلي للهجمات (ART) الذي يقوم باستمرار بفحص الثغرات الأمنية. ووفقًا لأبحاث Google DeepMind، أدى هذا النهج إلى تقليص معدل نجاح الهجمات التكيفية بشكل كبير مقارنة بالإصدارات السابقة من النماذج. كما قامت الشركة بضبط Gemini على مجموعات بيانات تحتوي على سيناريوهات هجوم واقعية، لتعليم النموذج تجاهل التعليمات الخبيثة المدمجة مع الاستجابة لطلبات المستخدمين المشروعة.
إلى جانب التحسينات الأمنية، تحصل نماذج Gemini 2.5 على ميزات إضافية مثل ملخصات التفكير في Gemini API وVertex AI، والتي تنظم عملية استدلال النموذج في صيغة منظمة لتعزيز الشفافية وتسهيل تصحيح الأخطاء. كما تدعم النماذج إخراج الصوت الأصلي لتجربة محادثة أكثر طبيعية.
يتوفر الآن نموذج Gemini 2.5 Flash للجميع عبر تطبيق Gemini، مع إتاحة عامة في Google AI Studio للمطورين وVertex AI للشركات في أوائل يونيو. وسيتبع ذلك قريبًا نموذج Gemini 2.5 Pro ليقدم ميزاته الأمنية المحسنة لشريحة أوسع من المستخدمين.