menu
close

AIビジョンモデル、医用画像での否定語理解に致命的な欠陥

MITの研究者らは、医用画像解析で広く利用されているビジョン・ランゲージモデル(VLM)が、「no」や「not」などの否定語を理解できないことを発見した。この重大な制限により、特定の条件で医用画像を検索する際、深刻な診断ミスにつながる恐れがある。2025年5月14日に発表された本研究では、AIビジョンシステムの否定語理解力を評価・向上させるための新たなベンチマーク「NegBench」が導入された。
AIビジョンモデル、医用画像での否定語理解に致命的な欠陥

MITの研究チームが、医用診断やその他の重要な応用分野に深刻な影響を及ぼしかねない、ビジョン・ランゲージモデル(VLM)の根本的な欠陥を明らかにした。

電気工学・コンピュータサイエンス学科のKumail Alhamoud氏(筆頭著者)とMarzyeh Ghassemi氏(上級著者)らによると、医用画像解析で利用が拡大しているこれらのAIシステムは、クエリ中の「no」や「not」といった否定語を理解できないことが判明した。

この制限は、特に医療現場で深刻な問題となる。例えば、心臓肥大が見られない組織腫脹の胸部X線画像を放射線科医が調べる場合、AIシステムに類似症例を検索させても、モデルが特定の疾患の有無を区別できなければ誤診につながる可能性がある。

「否定語は非常に大きな影響を持ちます。こうしたモデルを盲目的に使えば、壊滅的な結果を招きかねません」とAlhamoud氏は警鐘を鳴らす。画像キャプション中の否定語を識別する能力をテストしたところ、モデルの成績はランダムな推測と変わらなかったという。

この課題に対応するため、研究チームは画像・動画・医療データセットを横断し、18種類のタスクバリエーション、合計7万9000例から成る包括的なベンチマーク「NegBench」を開発した。NegBenchは、否定語を含むクエリによる画像検索能力と、否定語を含むキャプションの多肢選択問題への回答能力という2つの中核的な能力を評価する。

さらに、否定語に特化したデータセットを作成し、モデルの再学習を行った結果、否定語クエリでのリコールが10%向上し、否定語キャプションの多肢選択問題での正答率も28%向上した。しかし、研究チームはこの問題の根本的な解決にはさらなる研究が必要だと指摘している。

「否定のような基本的な要素が壊れているなら、現在のように大規模なビジョン・ランゲージモデルを十分な評価なしに使うべきではありません」とGhassemi氏は強調する。

この研究成果は、今後開催されるコンピュータビジョン・パターン認識会議(CVPR)で発表予定であり、医療など重要分野におけるより堅牢なAIシステムの必要性を強く訴えている。

Source:

Latest News