ChatGPTのような人工知能システムは、ほぼあらゆる質問に対してもっともらしい回答を生成する能力を急速に高めている。しかし、こうしたシステムは自身の限界を認めたり、適切な場面で不確実性を示したりすることが苦手であり、AIの導入が重要分野で加速する中で大きなリスクとなっている。
この課題に対し、2021年にMITの研究者ダニエラ・ラス、アレクサンダー・アミニ、エラヘ・アフマディによって設立されたThemis AIが解決策を打ち出した。同社の「Capsa」プラットフォームは、あらゆる機械学習モデルに組み込むことができ、信頼性の低い出力を数秒で検知・修正できる。
「AIが幻覚を起こしたり、誤った回答をしたりする例は誰もが目にしたことがあるでしょう」とThemis AI共同創業者のアミニ氏は語る。「AIがより広く展開されるにつれ、そうしたミスが壊滅的な結果を招く可能性があります。Themisの技術によって、どんなAIでも自らの失敗を事前に予測できるようになります。」
この技術は、AIモデルがデータ処理の過程で曖昧さ、不完全さ、バイアスを示すパターンを認識できるようにモデルを改良することで機能する。これにより、各出力ごとにモデル自身の不確実性を定量化し、潜在的なエラーを警告できる。導入も非常に簡単で、既存モデルを不確実性認識型へと変換するのに数行のコードを追加するだけで済む。
Capsaはすでに複数の産業分野で活用が始まっている。製薬企業は、薬剤候補の特定や臨床試験の成績予測に使われるAIモデルの精度向上にCapsaを利用している。大規模言語モデルの開発者も、より信頼性の高い質疑応答や不確実な出力の警告のために導入を進めている。Themis AIはまた、半導体企業ともエッジコンピューティング向けAIソリューションの強化について協議を進めている。
「Capsaはアレアトリック(偶発的)およびエピステミック(知識的)な不確実性を自動的に定量化できる変革的な技術です。これにより、コストのかかるミスになる前にモデルのエラーを検知できます」と、MITコンピュータ科学・人工知能研究所(CSAIL)所長も務めるラス氏は述べる。「ロボティクスや自動運転など、安全性と信頼性が求められる用途におけるAIシステムの活用範囲を拡大します。」
AIが進化し、重要分野へとますます浸透していく中で、Capsaのようなソリューションは、自らの限界を認識できるより信頼性の高いシステム構築に不可欠となるだろう。これは、ハイリスクな環境で責任あるAI活用を実現するための重要な一歩だ。