人工知能の重要インフラへの急速な統合により、サイバーセキュリティの専門家は深刻なセキュリティリスクの拡大を指摘している。これは2025年5月17日発行の最新RISKS Forum Digestで取り上げられた。
世界経済フォーラムの「グローバル・サイバーセキュリティ展望2025」によれば、組織の66%がAIを今年最大のサイバーセキュリティ変革要因と見なしている一方で、AIツールの導入前に安全性を評価する体制を整えているのはわずか37%にとどまる。この認識と実行のギャップが、各業界に深刻な脆弱性をもたらしている。
英国国家サイバーセキュリティセンター(NCSC)の最新レポートでは、「AI対応の脅威に追随できない組織やシステムは、サプライチェーン内でさらなる脆弱性の温床となるリスクが高まる」と警告している。NCSCは、2027年までにAIを活用した攻撃者が脆弱性発見から悪用までの期間をさらに短縮すると予測しており、すでにその期間は数日にまで短縮されている。
サイバーセキュリティ専門家が特に懸念しているのは、大規模言語モデル(LLM)に対するプロンプトインジェクション攻撃だ。セキュリティ研究者が引用した最近のペネトレーションテストでは、キャンドルショップのAIチャットボットがプロンプトエンジニアリングによって侵害され、セキュリティ・安全性・ビジネスリスクが生じた。この攻撃により、システムデータの抽出やチャットボット応答の改ざんが可能となり、一見無害なAI実装が深刻なセキュリティリスクとなりうることが示された。
サプライチェーンの脆弱性も大きな懸念事項であり、大規模組織の54%がサイバー・レジリエンス達成の最大の障壁と認識している。サプライチェーンの複雑化と、サプライヤーのセキュリティ対策に対する可視性の低さが、サードパーティ製コンポーネントを通じてAIシステムが侵害されるリスクを高めている。
自律的に意思決定や複雑なタスクを実行できる「エージェンティックAI」の登場は、2025年の脅威環境を一変させると見られている。Cisco傘下のSplunkでAI担当副社長を務めるハオ・ヤン氏は「これまではユーザーからのプロンプトに応答するAIアシスタントに注目していたが、今後は自律的に意思決定し複雑なタスクを実行できるエージェンティックAIツールに焦点が移る」と説明する。
専門家は、組織が正式なAIセキュリティポリシーを策定し、導入前に脅威モデリングを実施、攻撃対象領域を体系的に縮小し、ベンダーに積極的なセキュリティ改善プログラムを求めることを推奨している。さらに、AI駆動型攻撃が従来の防御策を超えて進化する中、セキュリティチームへの継続的なトレーニングも不可欠だ。
RISKS Forumのあるセキュリティ研究者は「AIによる攻撃への防御だけでなく、私たち自身のAIシステムが主要な標的となっている現実を認識することが重要だ」と指摘している。