menu
close

معهد MIT يكشف عن الآلية الرئيسية وراء تحيز النماذج اللغوية الكبيرة (LLM)

حدد باحثون من معهد MIT السبب الجذري لتحيز الموضع في النماذج اللغوية الكبيرة (LLMs)، وهو ظاهرة تركز فيها النماذج بشكل مفرط على المعلومات في بداية ونهاية المستندات مع إهمال المحتوى في الوسط. يكشف إطارهم النظري كيف أن بعض الخيارات التصميمية في بنية النموذج، وخاصة التقنيع السببي وآليات الانتباه، تخلق هذا التحيز بشكل جوهري حتى عندما لا يكون موجودًا في بيانات التدريب. يمثل هذا الاكتشاف تقدمًا مهمًا لفهم كيفية تطوير أنظمة ذكاء اصطناعي أكثر دقة وموثوقية.
معهد MIT يكشف عن الآلية الرئيسية وراء تحيز النماذج اللغوية الكبيرة (LLM)

حقق باحثون في معهد MIT تقدمًا كبيرًا في فهم سبب ظهور التحيز في النماذج اللغوية الكبيرة (LLMs)، مما قد يمهد الطريق لتطوير أنظمة ذكاء اصطناعي أكثر موثوقية.

اكتشف الفريق أن النماذج اللغوية الكبيرة تعاني من "تحيز الموضع"، أي الميل إلى التركيز بشكل مفرط على المعلومات الموجودة في بداية ونهاية المستندات مع إهمال المحتوى الموجود في الوسط. لهذا التحيز آثار عملية، فعلى سبيل المثال، عندما يستخدم محامٍ مساعدًا مدعومًا بنموذج لغوي كبير للبحث في مستند مكون من 30 صفحة، يكون النظام أكثر احتمالًا للعثور على نص ذي صلة إذا كان في الصفحات الأولى أو الأخيرة.

ما يجعل هذا الاكتشاف رائدًا هو أن الباحثين حددوا السبب الجذري لهذا التحيز داخل بنية النموذج نفسها. تقول شيني وو، طالبة الدراسات العليا في MIT والمؤلفة الرئيسية للبحث: "هذه النماذج تعتبر صناديق سوداء، لذا كمستخدم لنموذج لغوي كبير، ربما لا تدرك أن تحيز الموضع يمكن أن يجعل نموذجك غير متسق".

أنشأ الفريق إطارًا نظريًا قائمًا على الرسوم البيانية لتحليل كيفية تدفق المعلومات عبر بنية التعلم الآلي في النماذج اللغوية الكبيرة. وكشف تحليلهم أن بعض الخيارات التصميمية—وخاصة التقنيع السببي وآليات الانتباه—تمنح النماذج تحيزًا جوهريًا نحو بداية الإدخال، حتى عندما لا يكون هذا التحيز موجودًا في بيانات التدريب.

تضيف وو: "صحيح غالبًا أن الكلمات الأولى والأخيرة في الجملة أكثر أهمية، لكن إذا تم استخدام النموذج اللغوي الكبير في مهمة ليست توليد نصوص طبيعية، مثل التصنيف أو استرجاع المعلومات، فقد تكون هذه التحيزات ضارة للغاية".

تُكمل هذه الدراسة أبحاثًا حديثة أخرى أظهرت أن النماذج اللغوية الكبيرة تحمل أشكالًا متعددة من التحيز. فقد وجدت دراسة منفصلة من جامعة برينستون أن النماذج اللغوية الكبيرة التي تم تدريبها بشكل صريح لتكون غير متحيزة لا تزال تُظهر تحيزات ضمنية مشابهة للبشر الذين يرفضون القوالب النمطية عن وعي لكنهم يواصلون ترسيخها دون وعي. وباستخدام مقاييس مستوحاة من علم النفس، كشف الباحثون عن تحيزات نمطية واسعة النطاق تتعلق بالعرق والجنس والدين والصحة في ثمانية نماذج متوافقة مع القيم.

تقدم نتائج MIT ما وصفه البروفيسور أمين صبري من جامعة ستانفورد بأنه "عدسة نظرية نادرة لفهم آلية الانتباه في قلب نموذج المحول"، مما يوفر وضوحًا رياضيًا ورؤى عملية حول الأنظمة الواقعية. ومع تزايد دمج النماذج اللغوية الكبيرة في التطبيقات الحيوية، سيصبح فهم هذه التحيزات الجوهرية ومعالجتها أمرًا أساسيًا لتطوير تقنيات ذكاء اصطناعي عادلة وموثوقة.

Source:

Latest News