كشفت شركة Anthropic عن مجموعة متخصصة من نماذج الذكاء الاصطناعي تحمل اسم Claude Gov، تم تطويرها حصريًا لتطبيقات الأمن القومي الأمريكي. وتُستخدم هذه النماذج بالفعل من قبل وكالات الاستخبارات والدفاع الأمريكية على أعلى المستويات، مع تقييد الوصول إليها فقط للعاملين في البيئات المصنفة.
تم تطوير نماذج Claude Gov بناءً على ملاحظات مباشرة من العملاء الحكوميين لتلبية متطلبات العمليات الواقعية. وعلى عكس نماذج Claude القياسية المتاحة للمستهلكين والشركات، تم تصميم هذه الإصدارات المتخصصة للتعامل بشكل أفضل مع المواد الحساسة، حيث أشارت Anthropic إلى أن هذه النماذج "ترفض أقل عند التعامل مع المعلومات المصنفة".
وقال ثياجو راماسامي، رئيس القطاع العام في Anthropic: "ما يميز نماذج Claude Gov هو أنها صُممت خصيصًا لعملائنا في مجال الأمن القومي. من خلال فهم احتياجاتهم التشغيلية ودمج الملاحظات الواقعية، أنشأنا مجموعة من النماذج الآمنة والموثوقة والقادرة على التفوق ضمن القيود والمتطلبات الفريدة للبيئات المصنفة".
تقدم هذه النماذج قدرات محسنة مصممة خصيصًا للعمليات الحكومية، بما في ذلك فهم أفضل لوثائق الاستخبارات والدفاع، وكفاءة أكبر في اللغات الحيوية للأمن القومي، وتفسير أفضل لبيانات الأمن السيبراني المعقدة. ويمكن لعملاء الأمن القومي الاستفادة من هذه الأنظمة في التخطيط الاستراتيجي، ودعم العمليات، وتحليل المعلومات الاستخباراتية، وتقييم التهديدات.
يمثل دخول Anthropic إلى قطاع الدفاع جزءًا من اتجاه أوسع بين شركات الذكاء الاصطناعي الرائدة. حيث تسعى OpenAI لتعزيز علاقاتها مع وزارة الدفاع الأمريكية، وقد أتاحت Meta نماذج Llama الخاصة بها لشركاء الدفاع، وتعمل Google على تطوير إصدارات من Gemini AI للبيئات المصنفة. ويبرز هذا المشهد التنافسي أهمية الذكاء الاصطناعي المتزايدة في تطبيقات الأمن القومي، وسباق عمالقة التقنية لتأمين موطئ قدم في هذا السوق المربح.
وعلى الرغم من تخصيص هذه النماذج لتطبيقات الأمن القومي، تؤكد Anthropic أن Claude Gov خضع لنفس اختبارات السلامة الصارمة التي تخضع لها بقية أنظمة الذكاء الاصطناعي لديها، مما يعكس التزام الشركة بتطوير ذكاء اصطناعي مسؤول حتى مع توسعها في العمليات الحكومية الحساسة.