مع استمرار صعود تقنيات الذكاء الاصطناعي التوليدي بشكل لافت في عام 2025، برزت ثلاث قضايا رئيسية في صدارة النقاش العام: أمن الوظائف، حماية الخصوصية، ومخاطر الأمن السيبراني.
فيما يتعلق بسوق العمل، تقدم الأبحاث الأخيرة صورة متباينة. حيث تشير دراسة لماكينزي إلى أنه بحلول عام 2030، يمكن أتمتة أنشطة تمثل ما يصل إلى 30% من ساعات العمل الحالية في الاقتصاد الأمريكي، وهي وتيرة تتسارع بفضل الذكاء الاصطناعي التوليدي. وتعد وظائف الدعم المكتبي وخدمة العملاء وخدمات الطعام الأكثر عرضة لخطر الاستبدال. ومع ذلك، وعلى عكس التوقعات المتشائمة، أظهرت دراسة دنماركية حديثة شملت 11 مهنة و25,000 عامل أن أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT كان لها تأثير ضئيل حتى الآن على الأجور ومستويات التوظيف، حيث أبلغ المستخدمون عن توفير متوسط قدره 2.8% فقط من ساعات العمل.
أما على صعيد الخصوصية، فقد تصاعدت المخاوف مع معالجة أنظمة الذكاء الاصطناعي التوليدي لكميات هائلة من البيانات الشخصية. ويحذر خبراء الأمن في IBM من أن هذه الأنظمة قد تحفظ وتعيد إنتاج معلومات حساسة من بيانات التدريب، فيما يُعرف بـ"تسرب النماذج". ووفقاً لدراسة Cisco لمعايير خصوصية البيانات لعام 2024، فإن 79% من الشركات تحقق بالفعل قيمة كبيرة من الذكاء الاصطناعي التوليدي، إلا أن نصف المستخدمين فقط يمتنعون عن إدخال معلومات شخصية أو سرية في هذه الأدوات، ما يخلق مخاطر كبيرة على الخصوصية.
تمثل الثغرات الأمنية مصدر القلق الثالث. إذ تتوقع التقييمات الحكومية أنه بحلول عام 2025، سيؤدي الذكاء الاصطناعي التوليدي إلى تضخيم المخاطر الأمنية القائمة بدلاً من خلق مخاطر جديدة كلياً، لكنه سيزيد من سرعة وحجم التهديدات بشكل كبير. وحذرت الحكومة البريطانية مؤخراً من أن الذكاء الاصطناعي التوليدي قد يمكّن من تنفيذ هجمات إلكترونية أكثر سرعة وفعالية عبر أساليب تصيّد احتيالي مخصصة وتكرار البرمجيات الخبيثة. كما أن قدرة الذكاء الاصطناعي على إنتاج محتوى مزيف ووسائط اصطناعية مقنعة تهدد بتقويض ثقة الجمهور في مصادر المعلومات.
ومع تسارع المؤسسات في تبني الذكاء الاصطناعي التوليدي، يوصي الخبراء بتطبيق أطر قوية لحوكمة البيانات، تشمل تقليل البيانات، التشفير، ضوابط الوصول، والمراجعات الأمنية المنتظمة. فبدون تدابير حماية مناسبة، قد تعرض هذه التقنية التي تعد بزيادة غير مسبوقة في الإنتاجية الأفراد والمؤسسات لمخاطر كبيرة في الوقت ذاته.
ومع توقعات جارتنر بأن يشكل الذكاء الاصطناعي التوليدي 10% من إجمالي البيانات المنتجة بحلول عام 2025 (مقارنة بأقل من 1% حالياً)، لم تكن الحاجة إلى معالجة هذه المخاوف أكثر إلحاحاً من أي وقت مضى.