منذ إطلاق شركة OpenAI لأداة ChatGPT في عام 2022، بدأت أدوات الذكاء الاصطناعي في الانتشار السريع داخل الجامعات في جميع أنحاء البلاد. وتشمل هذه الأنظمة نماذج لغوية ومولدات صور تستجيب لأوامر المستخدمين، مما غيّر بشكل جذري طريقة تعامل الطلاب مع واجباتهم الدراسية.
أعرب العديد من الأساتذة عن معارضتهم لاستخدام الذكاء الاصطناعي في البيئة الأكاديمية، مشيرين إلى مخاوف تتعلق بالغش، وعدم دقة المعلومات، واعتماد الطلاب المفرط عليه، وتراجع مهارات التفكير النقدي. ورداً على ذلك، قامت الجامعات بتطبيق برامج لاكتشاف المحتوى الناتج عن الذكاء الاصطناعي مثل Turnitin لرصد الأعمال الطلابية.
تقول سيلست بيلغارد، أستاذة العلوم الإدراكية وعلم النفس التربوي في جامعة كاليفورنيا سان دييغو: "بالنسبة لي وللكثير من الأساتذة، هناك شعور بالخوف. نحن نتمسك بما تبقى، ونأمل ألا يصبح هذا هو الأسلوب الذي يستخدمه الجميع." وتضيف بيلغارد أنها تخشى أن يؤدي اعتماد الطلاب على الذكاء الاصطناعي في اجتياز المقررات التمهيدية إلى نقص المعرفة الأساسية وعدم القدرة على تقييم دقة الذكاء الاصطناعي. وتوضح: "من الصعب التمييز بين ما هو حقيقي وما هو زائف، وما هو مفيد وما هو مضلل. عندما يكون لديك خبرة كافية في مجال ما، يمكنك استخدام ChatGPT كأداة تفكير لأنك تستطيع اكتشاف نقاط ضعفه."
بعض المعلمين اتخذوا موقفاً صارماً ضد استخدام الذكاء الاصطناعي في صفوفهم. ففي إحدى الجامعات بكاليفورنيا، تفرض أستاذة سياسة صارمة تمنع الذكاء الاصطناعي في مقرر تدريس محو الأمية، معتبرة أن "الذكاء الاصطناعي يلغي فرصة خوض الطلاب في التحديات المنتجة" الضرورية للتعلم العميق وتطوير المهارات.
في المقابل، هناك أعضاء هيئة تدريس آخرون يتبنون الذكاء الاصطناعي مع الاعتراف بحدوده. يقول أحد الأساتذة الذين يدرسون موضوعات مرتبطة بالذكاء الاصطناعي: "أنا أغير منهجي كل يوم تقريباً. أعتقد أن هذا يذكرني كمحترف بضرورة التكيف المستمر مع التكنولوجيا الجديدة لأنها تتغير بسرعة كبيرة. من المهم جداً أن نكون منفتحين وفضوليين تجاه ما يمكن أن تقدمه لنا التكنولوجيا وكيف يمكن أن تساعدنا."
تختلف السياسات المؤسسية بشكل كبير. ففي جامعة جنوب كاليفورنيا (USC)، يمكن للأساتذة الاختيار بين نهجين حددتهما إرشادات الجامعة: "التبني والتطوير" أو "الردع والكشف". أما بوبي كارنز، أستاذ المحاسبة السريرية المساعد، فقد وجد حلاً وسطاً: "أنا أستخدمه طوال الوقت، لذا لا معنى لأن أطلب من الطلاب عدم استخدامه."
تقوم الجامعات بشكل متزايد بتنظيم فعاليات لمواجهة هذه التحديات. فقد استضافت جامعة ولاية ميشيغان مؤخراً قمة الذكاء الاصطناعي لعام 2025 لوضع استراتيجية استباقية لدمج الذكاء الاصطناعي. وشارك في الحدث خبراء مثل لورين كلاين من جامعة إيموري، التي أكدت أن "التفكير الإنساني يمكن أن يساعد في تحديد التحيزات في البيانات والتدخل لمعالجتها، وتوجيه تطوير أنظمة ذكاء اصطناعي عادلة وشاملة يقودها المجتمع."
ويعد نقص الاستعداد بين أعضاء هيئة التدريس عقبة كبيرة. إذ تظهر الأبحاث أن المعلمين يعبرون عن قلقهم من محدودية فهمهم للذكاء الاصطناعي والقضايا الأخلاقية المرتبطة به. ويشير الكثيرون إلى قلة فرص التطوير المهني كعائق رئيسي. وتبرز هذه المخاوف أهمية تصميم برامج تدريبية تركز على الجوانب المجتمعية والأخلاقية للذكاء الاصطناعي وليس فقط الجوانب التقنية.
ومع استمرار الذكاء الاصطناعي في إعادة تشكيل التعليم، يشدد الخبراء على أهمية تدريب مطوري ومستخدمي الذكاء الاصطناعي في المستقبل على التفكير في كيفية تأثير هذه التقنية على حياة الناس. ويشمل ذلك تحمل المسؤولية لتعظيم فوائد الذكاء الاصطناعي والحد من أضراره المحتملة، وربما من خلال إدراج أخلاقيات الذكاء الاصطناعي بشكل منهجي في تطوير المناهج.
وفي المستقبل، تخطط منظمات مثل رابطة الكليات والجامعات الأمريكية لإطلاق مبادرات مثل معهد الذكاء الاصطناعي والتربية والمناهج للعامين 2025-2026. وسيقدم هذا البرنامج الافتراضي الدعم للأقسام والمؤسسات "للاستجابة بفعالية للتحديات والفرص التي يقدمها الذكاء الاصطناعي للمقررات والمناهج والتعليم العالي بشكل عام" عبر فعاليات افتراضية، والإرشاد، وتنفيذ خطط عمل جماعية للذكاء الاصطناعي.