2025年6月13日、画期的な人工汎用知能(AGI)倫理フレームワークが発表され、高度なAIシステムの責任ある開発における重要な節目となった。このフレームワークは、主要テクノロジー企業、研究機関、国際機関による前例のない協力を通じて策定され、AIシステムが人間レベルの能力に近づく中で、倫理的な指針を確立することを目的としている。
この包括的なフレームワークは、AGIの進路を形作る5つの主要な側面――社会統合、技術的進歩、説明可能性、認知的・倫理的考慮、脳を模倣したシステム――に対応している。また、導入前の事前テストや、市場に出ているシステムに対する事後リスク評価のための詳細なガイドラインも盛り込まれている。
「AGIシステムが社会のガバナンスにますます統合される中、個人の権利を守るための法的枠組みと倫理指針の確立が不可欠です」と連合の代表者は述べている。フレームワークは、透明性、説明責任、そしてAGI開発を人間の価値観と整合させる必要性を強調している。
このイニシアティブは、ユネスコによる「人工知能の倫理に関する勧告」など、これまでの取り組みを基盤としつつ、複数の領域で人間と同等またはそれ以上の能力を持つ可能性のあるAGIシステムがもたらす独自の課題に特化している。労働市場の変動、プライバシー、安全保障、悪用の可能性といった懸念にも対応している。
専門家の中には、AGIが今後数年以内に登場すると予測し、早ければ2027年にも実用的なシステムが現れる可能性を指摘する声もある。大規模言語モデルやマルチモーダルAIシステムの最近の進展は、汎用知能の側面を備えつつあることを示しており、このフレームワークの発表は極めて重要なタイミングとなった。
連合は、フレームワークの実施と順守を監督する委員会を設置し、AGI開発が加速する中でも倫理的配慮が中心であり続けるべきだと強調している。また、今月後半にバンコクで「AGI倫理に関するグローバルフォーラム」を開催し、実践的な実装戦略について関係者が議論する予定であると発表した。