menu
close

ميتا تنتصر في معركة قضائية ألمانية بشأن استخدام بيانات التدريب على الذكاء الاصطناعي

حكمت محكمة ألمانية لصالح شركة ميتا، رافضة محاولة مجموعة حقوق المستهلكين منع الشركة من استخدام بيانات مستخدمي فيسبوك وإنستغرام لتدريب نماذج الذكاء الاصطناعي الخاصة بها. وقررت المحكمة الإقليمية العليا في كولونيا في 23 مايو 2025 أن مصالح ميتا في معالجة بيانات المستخدمين تفوق المخاوف المتعلقة بالخصوصية، خاصة بعد أن اتخذت الشركة تدابير للتقليل من تأثير ذلك على حقوق المستخدمين. يأتي هذا الحكم في ظل استمرار المعارك القانونية العالمية حول بيانات تدريب الذكاء الاصطناعي، بما في ذلك قضية أمريكية منفصلة رفعها مؤلفون ضد استخدام ميتا لكتب محمية بحقوق النشر لتدريب نموذج Llama للذكاء الاصطناعي.
ميتا تنتصر في معركة قضائية ألمانية بشأن استخدام بيانات التدريب على الذكاء الاصطناعي

رفضت المحكمة الإقليمية العليا في كولونيا طلب منظمة حماية المستهلك في ولاية شمال الراين-وستفاليا (Verbraucherzentrale NRW) الذي كان يهدف إلى منع ميتا من استخدام المنشورات العامة لمستخدمي فيسبوك وإنستغرام لأغراض تدريب الذكاء الاصطناعي.

وفي حكمها الصادر في 23 مايو، خلصت المحكمة إلى أن ميتا "تسعى إلى هدف مشروع من خلال استخدام البيانات لتدريب أنظمة الذكاء الاصطناعي" وأن تغذية بيانات المستخدمين في أنظمة التدريب مسموح به "حتى دون موافقة المتأثرين بذلك". واعتبرت المحكمة أن مصالح ميتا في معالجة البيانات تفوق مصالح أصحاب البيانات، ويرجع ذلك جزئياً إلى أن الشركة طبقت تدابير فعالة للحد من التدخل في حقوق المستخدمين.

وتعتزم ميتا البدء في استخدام المحتوى العام لمستخدمي منصاتها البالغين في الاتحاد الأوروبي اعتباراً من 27 مايو 2025. وقد وفرت الشركة للمستخدمين خيار الانسحاب، وأكدت أن محتوى المستخدمين دون سن 18 عاماً لن يُستخدم لأغراض التدريب. وكانت لجنة حماية البيانات الأيرلندية، وهي الجهة التنظيمية الرئيسية لميتا في أوروبا، قد أعطت تقييماً إيجابياً لخطة الشركة بعد أن عالجت ميتا العديد من المخاوف من خلال تحسين إشعارات الشفافية وتسهيل نماذج الاعتراض.

ومع ذلك، ليست جميع الجهات التنظيمية متفقة. فقد بدأ مفوض حماية البيانات في هامبورغ إجراءات عاجلة ضد ميتا، بهدف حظر الشركة من استخدام بيانات الألمان في تدريب الذكاء الاصطناعي لمدة ثلاثة أشهر إضافية على الأقل. كما انتقدت مجموعة الدفاع عن الخصوصية الأوروبية NOYB، بقيادة ماكس شريمس، نهج ميتا، معتبرةً أن الشركة يجب أن تعتمد نموذج الموافقة المسبقة (opt-in) بدلاً من نموذج الانسحاب (opt-out) لجمع البيانات.

ويأتي هذا الحكم الألماني على النقيض من التحديات القانونية المستمرة التي تواجهها ميتا في الولايات المتحدة، حيث أعرب القاضي الفيدرالي فينس شابريا عن شكوكه بشأن ادعاء ميتا بالاستخدام العادل للمواد المحمية بحقوق النشر في تدريب نموذج Llama للذكاء الاصطناعي. وفي تلك القضية، اتهم مؤلفون مثل جونوت دياز وسارة سيلفرمان ميتا باستخدام نسخ مقرصنة من كتبهم دون إذن، وحذر القاضي من أن أنظمة الذكاء الاصطناعي قد "تقضي تماماً" على سوق الأعمال الإبداعية الأصلية.

وتبرز هذه النتائج القانونية المتباينة مدى تعقيد وتطور المشهد التنظيمي المحيط ببيانات تدريب الذكاء الاصطناعي عبر مختلف الولايات القضائية، في الوقت الذي تحاول فيه المحاكم والجهات التنظيمية الموازنة بين الابتكار التكنولوجي من جهة، والخصوصية وحقوق الملكية الفكرية من جهة أخرى.

Source: Reuters

Latest News