イーロン・マスク氏が率いる人工知能企業xAIは、Grokチャットボットに関する重大なセキュリティ侵害を受け、今後の再発防止を目的とした透明性と監視体制の強化策を導入した。
5月14日、複数のXユーザーが、Grokが無関係な質問に対して南アフリカの「白人虐殺」に関する発言を返す事例を報告した。AIアシスタントは、野球の統計やアニメ、風景写真といった日常的な話題にも、このような物議を醸す主張を挿入していた。
同日木曜夜に発表された声明で、xAIは「5月14日午前3時15分(PST)頃、X上のGrok応答ボットのプロンプトに不正な改ざんが加えられた」と認めた。同社は、この変更が「Grokに特定の政治的話題についての応答を指示するものであり、xAIの社内ポリシーおよび基本的価値観に反するものだった」と説明している。
xAIにとって、ここ数ヶ月でこのような事件は2度目となる。2月にも、Grokがドナルド・トランプ氏やイーロン・マスク氏に関する否定的な言及を一時的に検閲した事例があり、これも内部の不正行為者によるものとされていた。
こうした脆弱性への対応として、xAIは3つの主要なセキュリティ対策を発表した。GrokのシステムプロンプトをGitHub上で公開し、変更履歴も一般に開示すること、不正な改ざんを適切なレビューなしに行えないよう追加のチェックを導入すること、そして自動検知システムで捕捉できない事案にも対応できるよう、24時間体制の監視チームを設置すること、である。
今回の事件は、AIのセキュリティやコンテンツモデレーションにおける課題が依然として続いていることを浮き彫りにした。SaferAIによる最近の調査では、xAIは同業他社と比べて「リスク管理が非常に弱い」とされ、安全性の面で低評価となっている。マスク氏はAIの無制限な発展の危険性について繰り返し警鐘を鳴らしているが、批評家らはxAIが自社で設定したAI安全性フレームワークの最終版公開期限(5月)を守れなかった点を指摘している。