أعلنت شركة ميتا بلاتفورمز رسميًا عن إطلاق LLaMA 4، أحدث عائلة من نماذج الذكاء الاصطناعي وأكثرها تطورًا حتى الآن، في خطوة تمثل قفزة نوعية في تقنيات الذكاء الاصطناعي المدعوم بالصوت.
تم إطلاق LLaMA 4 في أبريل 2025، ويضم النموذج الجديد نموذجين رئيسيين: Scout وMaverick، بالإضافة إلى نموذج ثالث أكثر قوة يُدعى Behemoth لا يزال قيد التطوير. وتعتمد هذه النماذج على بنية "مزيج الخبراء"، ما يمكّنها من معالجة ودمج أنواع متعددة من البيانات مثل النصوص، والصور، والصوت، والفيديو، مع دعم لعدة لغات.
ما يميز LLaMA 4 هو قدراته الصوتية المتقدمة. فقد وصف كريس كوكس، مدير المنتجات في ميتا، النموذج بأنه "نموذج شامل" قادر على تفسير وإنتاج الكلام بشكل أصلي، وليس مجرد تحويل الصوت إلى نص. يتيح النظام إجراء محادثات طبيعية وسلسة مع إمكانية مقاطعة الذكاء الاصطناعي أثناء الحديث، تمامًا كما يحدث في التفاعل البشري. وتتيح تقنية الصوت ثنائي الاتجاه (full-duplex) للذكاء الاصطناعي إنتاج الكلام مباشرة بدلاً من الاكتفاء بقراءة النصوص بصوت عالٍ.
تنعكس هذه القدرات على قطاع الأعمال بشكل كبير، حيث تستهدف ميتا تطبيقات خدمة العملاء، إذ يمكن لـ LLaMA 4 إدارة المحادثات مع العملاء، وتقديم الدعم، ومعالجة المعاملات. وتقوم الشركة حاليًا باختبار وكلاء ذكاء اصطناعي مخصصين للأعمال معتمدين على هذه التقنية. بالإضافة إلى ذلك، جذب مساعد ميتا الذكي – Meta AI – المبني على LLaMA 4 أكثر من 600 مليون مستخدم شهريًا حول العالم، رغم عدم توفره في الاتحاد الأوروبي بسبب المخاوف التنظيمية.
استثمرت ميتا بشكل ضخم في الذكاء الاصطناعي، حيث أعلن الرئيس التنفيذي مارك زوكربيرج عن خطط لإنفاق ما يصل إلى 65 مليار دولار في عام 2025 لتعزيز عروض الذكاء الاصطناعي لدى الشركة. وتأتي هذه الخطوة في ظل منافسة قوية مع عمالقة التقنية مثل OpenAI، ومايكروسوفت، وجوجل في سباق تجاريّة الذكاء الاصطناعي.
يمثل إطلاق LLaMA 4 رؤية ميتا لمستقبل التفاعل مع الذكاء الاصطناعي. ومع تطور النماذج اللغوية لتصبح أكثر قدرة على المحادثة، تتوقع الشركة أن ينتقل المستخدمون من الكتابة إلى التحدث مع مساعديهم الذكيين. وقد أطلقت ميتا بالفعل تطبيق Meta AI مستقل يركز على المحادثات الصوتية، وهو متوفر حاليًا في الولايات المتحدة وكندا وأستراليا ونيوزيلندا، مع خطط للتوسع عالميًا.