أعلنت شركة ميتا بلاتفورمز رسميًا عن إطلاق LLaMA 4، أحدث عائلة من نماذج الذكاء الاصطناعي وأكثرها تطورًا حتى الآن، مما يمثل قفزة كبيرة في تكنولوجيا الذكاء الاصطناعي المعتمد على الصوت.
تم إطلاق LLaMA 4 في أبريل 2025، ويقدم نموذجين رئيسيين: Scout وMaverick، بالإضافة إلى نموذج ثالث أقوى يُدعى Behemoth لا يزال قيد التطوير. تعتمد هذه النماذج على بنية "مزيج الخبراء"، ما يمكّنها من معالجة ودمج أنواع متعددة من البيانات مثل النصوص والصور والصوت والفيديو، مع دعمها لعدة لغات.
ما يميز LLaMA 4 هو قدراته الصوتية المتقدمة. حيث وصف كريس كوكس، مدير المنتجات في ميتا، النظام بأنه "نموذج شامل" يفسر وينتج الكلام بشكل أصلي، وليس مجرد تحويل الصوت إلى نص. يسمح النظام بإجراء محادثات طبيعية وسلسة يمكن للمستخدم خلالها مقاطعة الذكاء الاصطناعي أثناء الحديث، تمامًا كما يحدث في التفاعل البشري. وتتيح تقنية الصوت ثنائي الاتجاه هذه للذكاء الاصطناعي إنتاج الكلام مباشرة بدلاً من الاكتفاء بقراءة النصوص بصوت عالٍ.
تنعكس هذه القدرات في تطبيقات الأعمال بشكل كبير، حيث تستهدف ميتا مجالات خدمة العملاء، إذ يمكن لـ LLaMA 4 إدارة المحادثات مع العملاء، وتقديم الدعم، ومعالجة المعاملات. وتقوم الشركة بالفعل باختبار وكلاء ذكاء اصطناعي موجهين للأعمال مدعومين بهذه التقنية. بالإضافة إلى ذلك، جذب مساعد ميتا الذكي – المبني على LLaMA 4 – أكثر من 600 مليون مستخدم نشط شهريًا حول العالم، رغم عدم توفره في الاتحاد الأوروبي بسبب اعتبارات تنظيمية.
استثمرت ميتا بشكل ضخم في الذكاء الاصطناعي، حيث أعلن الرئيس التنفيذي مارك زوكربيرج عن خطط لإنفاق ما يصل إلى 65 مليار دولار في عام 2025 لتعزيز عروض الشركة في هذا المجال. وتأتي هذه الخطوة في ظل منافسة قوية مع عمالقة التقنية مثل OpenAI ومايكروسوفت وجوجل في سباق تسويق تقنيات الذكاء الاصطناعي.
يمثل إطلاق LLaMA 4 رؤية ميتا لمستقبل التفاعل مع الذكاء الاصطناعي. ومع تطور النماذج اللغوية لتصبح أكثر حوارية، تتوقع الشركة أن ينتقل المستخدمون من الكتابة إلى التحدث مع مساعديهم الذكيين. وقد أطلقت ميتا بالفعل تطبيقًا مستقلاً لمساعدها الذكي Meta AI مصممًا حول المحادثات الصوتية، وهو متوفر حاليًا في الولايات المتحدة وكندا وأستراليا ونيوزيلندا، مع خطط للتوسع عالميًا.