OpenAIが2022年にChatGPTを公開して以来、人工知能ツールは全米の大学キャンパスに急速に浸透している。これらのAIシステムには、ユーザーの指示に応じて応答する言語モデルや画像生成ツールが含まれ、学生の課題への取り組み方を根本的に変えている。
多くの教授が学術現場でのAI利用に反対の声を上げており、不正行為や事実誤認、学生の過度な依存、批判的思考力の低下などを懸念している。これを受けて、大学側はTurnitinのようなAI検出ソフトウェアを導入し、学生提出物に含まれるAI生成コンテンツの特定を進めている。
「私も多くの教授も恐怖を感じています」と、カリフォルニア大学サンディエゴ校の認知科学・教育心理学教授セレステ・ピレガード氏は認める。「私たちは最後の砦を守ろうとしていますが、これが皆に使われるものになってほしくないと願っています。」ピレガード氏は、AIを使って基礎科目を通過した学生が基礎知識やAIの正確性を評価する力を欠くことを懸念している。「何が本物で何が偽物か、何が有益で何が誤ったものかを見分けるのは難しい」と彼女は説明する。「ある分野に十分な専門知識があれば、ChatGPTを思考ツールとして活用できますが、その欠点を見抜くことができるからです。」
AIの利用を厳しく禁止する教育者もいる。カリフォルニア州のある大学では、リテラシー教育の授業で「AIは生産的な苦闘の機会を奪う」として、AIの使用を全面的に禁止している教授もいる。深い学びやスキル習得にはこの「生産的な苦闘」が不可欠だと主張している。
一方で、AIの限界を認識しつつ積極的に活用する教員もいる。「私はほぼ毎日カリキュラムを変えています」とAI関連科目を教える教授は語る。「技術は非常に速く変化するので、常に新しいテクノロジーに適応する必要があると、プロとして改めて感じています。オープンであること、テクノロジーが何をもたらし、どのように役立つかに好奇心を持つことが非常に重要です。」
大学ごとに対応は大きく異なる。南カリフォルニア大学(USC)では、「受け入れて強化する」か「抑制して検出する」か、2つの方針から教授が選択できるガイドラインを設けている。臨床会計学准教授のボビー・カーネス氏は「私は普段からAIを使っているので、学生に使うなと言うのは理にかなわない」と中間的な立場を取っている。
こうした課題に対応するため、大学ではイベントの開催も増えている。ミシガン州立大学は最近、AI統合のための積極的な戦略を策定する「2025 AIサミット」を開催した。エモリー大学のローレン・クライン氏など専門家が登壇し、「人文学的な思考やアイデアは、データバイアスの特定や介入、そして公正で包摂的かつコミュニティ主導のAIシステム開発の指針となり得る」と強調した。
大きな障壁となっているのは、教員側の準備不足だ。調査によれば、教員はAIやそれに伴う倫理的課題への理解が不十分であることに懸念を示している。多くは専門的な研修機会の不足を主な障害として挙げている。これらの懸念は、AIの社会的・倫理的影響に焦点を当てた質の高い研修プログラムの重要性を浮き彫りにしている。
AIが教育を変革し続ける中、専門家は将来のAI開発者や利用者が、テクノロジーが人々の生活に与える影響を省察することの重要性を強調している。AIの利点を最大化しつつ潜在的なリスクを軽減する責任を担うこと、そしてAI倫理をカリキュラム開発に体系的に組み込むことが求められている。
今後を見据え、アメリカ大学・大学院協会(Association of American Colleges & Universities)などの団体は、「2025-26 AI・教育法・カリキュラム研究所」などの新たな取り組みを計画している。このオンラインプログラムでは、バーチャルイベントやメンタリング、AIアクションプランの共同実施を通じて、各学部や大学が「人工知能がコースやカリキュラム、高等教育全体にもたらす課題と機会に効果的に対応する」ことを支援する。