menu
close

AIビジョンモデルは否定表現を理解できず、医療ミスのリスクに

MITの研究者らは、ビジョン・ランゲージ・モデル(VLM)が「no」や「not」といった否定語を理解できず、テストではランダムな推測と同程度の精度しか示さないことを発見した。この根本的な欠陥は、現状と非現状の区別が極めて重要な医療現場において、重大な診断ミスにつながる可能性がある。研究チーム(Kumail Alhamoud氏とMarzyeh Ghassemi氏が主導)は、これらのモデルを評価・改善するためのベンチマーク「NegBench」を開発した。
AIビジョンモデルは否定表現を理解できず、医療ミスのリスクに

MITによる画期的な研究で、ビジョン・ランゲージ・モデル(VLM)に重大な欠陥があることが明らかになった。これは、医療やその他の高リスク分野での活用に深刻な影響を及ぼす可能性がある。

本研究でMITの研究者らは、VLMが否定語――「no」や「doesn't」など、事実や存在しないことを示す単語――を理解できず、現実世界の状況で誤りを犯しやすいことを発見した。「否定語は非常に大きな影響を持ちます。もし我々がこれらのモデルを盲目的に使えば、壊滅的な結果を招く恐れがあります」と、MIT大学院生で本研究の筆頭著者であるKumail Alhamoud氏は述べている。

研究者らは医療現場の例でこの問題を説明している。例えば、放射線科医が胸部X線写真を見て、患者に組織の腫れはあるが心臓肥大はないと判断したとする。このような状況で、VLMはこれらの状態を区別することができない可能性が高い。 もしモデルが両方の状態があると誤って判断すれば、診断への影響は大きい。組織の腫れと心臓肥大が両方ある場合は心疾患の可能性が高いが、心臓肥大がなければ原因は他にも考えられる。

画像キャプション内の否定表現をVLMが識別できるかテストしたところ、モデルの精度はランダムな推測と同程度であることが分かった。これを受けて研究チームは、否定語を含むキャプション付き画像データセットを作成。これで再学習させたVLMは、特定の物体が「存在しない」画像を検索するタスクや、否定表現を含む選択式問題で精度が向上した。しかし、根本的な課題解決にはさらなる研究が必要だと研究者らは指摘している。

「これは『no』や『not』といった単語だけの問題ではありません。否定や除外をどのように表現しても、モデルはそれを無視してしまうのです」とAlhamoud氏は語る。この傾向は、テストしたすべてのVLMで一貫して見られた。 この根本原因は、モデルの学習方法にある。「キャプションは画像に写っているものを表現しており、基本的に肯定的なラベルになっています。これがまさに問題なのです。誰も『フェンスを飛び越える犬』の画像に『ヘリコプターがいない』とはキャプションを付けません」と、上級著者のMarzyeh Ghassemi氏は説明する。画像キャプションデータセットに否定表現の例が含まれていないため、VLMは否定を学習できないのだ。

「否定のような基本的な要素が壊れているのであれば、現在のように十分な評価もせずに大規模なビジョン・ランゲージモデルを使うべきではありません」と、電気工学・コンピュータサイエンス学科准教授で医用工学科学研究所のメンバーでもあるGhassemi氏は警鐘を鳴らす。この研究は、MIT、OpenAI、オックスフォード大学の研究者らによって行われ、コンピュータビジョンとパターン認識に関する国際会議で発表される予定だ。

この発見は、安全監視や医療などの高リスク分野に大きな影響を及ぼす。研究チームが開発したNegBenchは、否定表現に特化したVLM評価のための包括的ベンチマークであり、より精緻な言語理解を持つ堅牢なAIシステムの実現に向けた重要な一歩となる。これは、医療診断や意味的コンテンツ検索にも重大な意味を持つ。

Source: Mit

Latest News