2025年、生成AI技術の急速な進化と普及に伴い、雇用の安定、プライバシー保護、サイバーセキュリティのリスクという三つの主要な懸念が社会的議論の中心に浮上している。
まず雇用面では、最近の研究が複雑な状況を示している。マッキンゼーの調査によれば、2030年までに米国経済全体の現行労働時間の最大30%に相当する業務が自動化される可能性があり、生成AIがその傾向を加速させている。特にオフィスサポート、カスタマーサービス、飲食サービスなどの職種が最も高いリスクにさらされている。しかし、悲観的な予測とは裏腹に、デンマークの最新調査(2万5,000人・11職種対象)では、ChatGPTのような生成AIツールの導入による賃金や雇用水準への影響は現時点で最小限にとどまっており、利用者の平均業務時間削減率も2.8%に過ぎないことが明らかとなった。
プライバシーへの懸念も高まっている。生成AIシステムは膨大な個人データを処理するため、IBMのセキュリティ専門家は、AIが学習データから機密情報を無意識に記憶・再現してしまう「モデルリーケージ(モデル漏洩)」のリスクを警告している。シスコの2024年データプライバシーベンチマーク調査によれば、既に79%の企業が生成AIから大きな価値を得ている一方、利用者の半数しか個人情報や機密情報の入力を控えておらず、重大なプライバシーリスクが生じている。
セキュリティ脆弱性も三大懸念の一つだ。政府の評価では、2025年までに生成AIは新たな脅威を生み出すというより、既存のセキュリティリスクを増幅し、その速度と規模を劇的に拡大させると予測されている。英国政府は最近、生成AIが標的型フィッシングやマルウェアの複製を通じて、より迅速かつ巧妙なサイバー攻撃を可能にする危険性を警告した。また、AIによる精巧なディープフェイクや合成メディアの生成能力は、情報源への信頼を著しく損なう恐れがある。
生成AIの導入が急速に進む中、専門家はデータ最小化、暗号化、アクセス制御、定期的なセキュリティ監査などを含む強固なデータガバナンス体制の構築を推奨している。適切な対策がなければ、かつてない生産性向上を約束する技術が、個人や組織に重大なリスクをもたらしかねない。
ガートナーは、2025年までに生成AIが全データ生成量の10%(現状は1%未満)を占めると予測しており、これらの懸念への対応はかつてないほど急務となっている。