مع استمرار صعود تقنيات الذكاء الاصطناعي التوليدي بشكل متسارع في عام 2025، برزت ثلاث مخاوف رئيسية في صدارة النقاش العام: أمن الوظائف، وحماية الخصوصية، ومخاطر الأمن السيبراني.
على صعيد التوظيف، تقدم الأبحاث الحديثة صورة متباينة. إذ تشير دراسة لماكينزي إلى أنه بحلول عام 2030، يمكن أتمتة أنشطة تمثل حتى 30% من ساعات العمل الحالية في الاقتصاد الأمريكي، وهو اتجاه يتسارع بفضل الذكاء الاصطناعي التوليدي. وتعد وظائف الدعم المكتبي وخدمة العملاء وخدمات الطعام الأكثر عرضة لخطر الاستبدال. ومع ذلك، وعلى عكس التوقعات الكارثية، أظهرت دراسة دنماركية حديثة شملت 11 مهنة و25,000 عامل أن أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT كان لها تأثير محدود حتى الآن على الأجور ومستويات التوظيف، حيث أبلغ المستخدمون عن توفير متوسط قدره 2.8% فقط من ساعات العمل.
أما على صعيد الخصوصية، فقد تزايدت المخاوف مع معالجة أنظمة الذكاء الاصطناعي التوليدي لكميات هائلة من البيانات الشخصية. ويحذر خبراء الأمن في IBM من أن هذه الأنظمة قد تحفظ وتعيد إنتاج معلومات حساسة من بيانات التدريب، فيما يعرفه الخبراء باسم "تسرب النماذج". ووفقاً لدراسة Cisco لمعايير خصوصية البيانات لعام 2024، فإن 79% من الشركات تحقق بالفعل قيمة كبيرة من الذكاء الاصطناعي التوليدي، إلا أن نصف المستخدمين فقط يمتنعون عن إدخال معلومات شخصية أو سرية إلى هذه الأدوات، ما يخلق مخاطر كبيرة على الخصوصية.
أما المخاوف الأمنية، فهي تمثل التحدي الثالث. إذ تتوقع التقييمات الحكومية أنه بحلول عام 2025، سيعمل الذكاء الاصطناعي التوليدي على تضخيم المخاطر الأمنية القائمة بدلاً من خلق تهديدات جديدة كلياً، لكنه سيزيد بشكل كبير من سرعة وحجم التهديدات. وقد حذرت الحكومة البريطانية مؤخراً من أن الذكاء الاصطناعي التوليدي يمكن أن يمكّن من تنفيذ هجمات إلكترونية أسرع وأكثر فعالية عبر أساليب تصيد احتيالي مخصصة وتكرار البرمجيات الخبيثة. بالإضافة إلى ذلك، فإن قدرة الذكاء الاصطناعي على إنتاج محتوى مزيف مقنع ووسائط اصطناعية تهدد بتقويض ثقة الجمهور في مصادر المعلومات.
ومع تسارع المؤسسات في تبني الذكاء الاصطناعي التوليدي، يوصي الخبراء بتطبيق أطر حوكمة بيانات قوية، تشمل تقليل البيانات، والتشفير، وضوابط الوصول، وإجراء مراجعات أمنية دورية. فبدون ضمانات مناسبة، قد يعرض هذا الابتكار الذي يعد بزيادات غير مسبوقة في الإنتاجية الأفراد والمؤسسات لمخاطر كبيرة في الوقت ذاته.
ومع توقعات شركة جارتنر بأن يشكل الذكاء الاصطناعي التوليدي 10% من إجمالي البيانات المنتجة بحلول عام 2025 (مقارنة بأقل من 1% حالياً)، لم تكن الحاجة لمعالجة هذه المخاوف أكثر إلحاحاً من أي وقت مضى.