menu
close

التهديد الثلاثي للذكاء الاصطناعي التوليدي: الوظائف والخصوصية والأمن في خطر

أثار الانتشار السريع لتقنيات الذكاء الاصطناعي التوليدي مخاوف واسعة النطاق بشأن فقدان الوظائف، وانتهاكات خصوصية البيانات، ونقاط الضعف الأمنية. وتشير دراسات حديثة إلى أنه رغم قدرة الذكاء الاصطناعي على تعزيز الإنتاجية في بعض القطاعات، إلا أنه قد يؤدي إلى أتمتة ما يصل إلى 30% من ساعات العمل الحالية في الاقتصاد الأمريكي بحلول عام 2030. وفي الوقت ذاته، يحذر خبراء الخصوصية من احتمالية تسريب الأنظمة الذكية لمعلومات شخصية حساسة، مع غياب الضمانات الكافية لحماية البيانات، ما يجعل هذه القضية أكثر إلحاحاً مع تسارع وتيرة الاعتماد على الذكاء الاصطناعي.
التهديد الثلاثي للذكاء الاصطناعي التوليدي: الوظائف والخصوصية والأمن في خطر

مع استمرار صعود تقنيات الذكاء الاصطناعي التوليدي بشكل متسارع في عام 2025، برزت ثلاث مخاوف رئيسية في صدارة النقاش العام: أمن الوظائف، وحماية الخصوصية، ومخاطر الأمن السيبراني.

على صعيد التوظيف، تقدم الأبحاث الحديثة صورة متباينة. إذ تشير دراسة لماكينزي إلى أنه بحلول عام 2030، يمكن أتمتة أنشطة تمثل حتى 30% من ساعات العمل الحالية في الاقتصاد الأمريكي، وهو اتجاه يتسارع بفضل الذكاء الاصطناعي التوليدي. وتعد وظائف الدعم المكتبي وخدمة العملاء وخدمات الطعام الأكثر عرضة لخطر الاستبدال. ومع ذلك، وعلى عكس التوقعات الكارثية، أظهرت دراسة دنماركية حديثة شملت 11 مهنة و25,000 عامل أن أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT كان لها تأثير محدود حتى الآن على الأجور ومستويات التوظيف، حيث أبلغ المستخدمون عن توفير متوسط قدره 2.8% فقط من ساعات العمل.

أما على صعيد الخصوصية، فقد تزايدت المخاوف مع معالجة أنظمة الذكاء الاصطناعي التوليدي لكميات هائلة من البيانات الشخصية. ويحذر خبراء الأمن في IBM من أن هذه الأنظمة قد تحفظ وتعيد إنتاج معلومات حساسة من بيانات التدريب، فيما يعرفه الخبراء باسم "تسرب النماذج". ووفقاً لدراسة Cisco لمعايير خصوصية البيانات لعام 2024، فإن 79% من الشركات تحقق بالفعل قيمة كبيرة من الذكاء الاصطناعي التوليدي، إلا أن نصف المستخدمين فقط يمتنعون عن إدخال معلومات شخصية أو سرية إلى هذه الأدوات، ما يخلق مخاطر كبيرة على الخصوصية.

أما المخاوف الأمنية، فهي تمثل التحدي الثالث. إذ تتوقع التقييمات الحكومية أنه بحلول عام 2025، سيعمل الذكاء الاصطناعي التوليدي على تضخيم المخاطر الأمنية القائمة بدلاً من خلق تهديدات جديدة كلياً، لكنه سيزيد بشكل كبير من سرعة وحجم التهديدات. وقد حذرت الحكومة البريطانية مؤخراً من أن الذكاء الاصطناعي التوليدي يمكن أن يمكّن من تنفيذ هجمات إلكترونية أسرع وأكثر فعالية عبر أساليب تصيد احتيالي مخصصة وتكرار البرمجيات الخبيثة. بالإضافة إلى ذلك، فإن قدرة الذكاء الاصطناعي على إنتاج محتوى مزيف مقنع ووسائط اصطناعية تهدد بتقويض ثقة الجمهور في مصادر المعلومات.

ومع تسارع المؤسسات في تبني الذكاء الاصطناعي التوليدي، يوصي الخبراء بتطبيق أطر حوكمة بيانات قوية، تشمل تقليل البيانات، والتشفير، وضوابط الوصول، وإجراء مراجعات أمنية دورية. فبدون ضمانات مناسبة، قد يعرض هذا الابتكار الذي يعد بزيادات غير مسبوقة في الإنتاجية الأفراد والمؤسسات لمخاطر كبيرة في الوقت ذاته.

ومع توقعات شركة جارتنر بأن يشكل الذكاء الاصطناعي التوليدي 10% من إجمالي البيانات المنتجة بحلول عام 2025 (مقارنة بأقل من 1% حالياً)، لم تكن الحاجة لمعالجة هذه المخاوف أكثر إلحاحاً من أي وقت مضى.

Source: Windows Central

Latest News