イタリアのデータ保護監督機関「ガランテ(Garante)」は、AIチャットボット「Replika」の開発元であるLuka Inc.に対し、500万ユーロ(約5.64百万ドル)の罰金を科しました。これは、欧州連合(EU)によるAIプラットフォームへの監視強化の中で、重要な執行事例の一つとなります。
2017年にサンフランシスコでローンチされたReplikaは、ユーザーの感情的な健康を高めることを目的とした、会話型のパーソナライズAIアバターを提供しています。同社は、音声チャットなどの有料機能によって月間約200万ドルの収益を上げており、基本サービスは無料で提供しています。
イタリア当局は2023年2月、子どもや感情的に脆弱な人々へのリスクを理由に、Replikaの国内サービス停止を命じました。その後の詳細な調査で、ガランテはLuka Inc.がEUのプライバシー規則において2つの重大な違反をしていると認定しました。第一に、ユーザーの個人データを処理するための有効な法的根拠がなく、第二に、未成年者の利用を防ぐための年齢確認メカニズムが一切導入されていませんでした。
特に規制当局が懸念したのは、アプリが「安全な空間」としてユーザーに敏感な個人情報の共有を促し、脆弱な利用者が通常以上の情報を開示するよう誘導していた点です。Replikaの利用規約では18歳未満の利用を禁止しているものの、実際にはその制限を有効に施行する措置が取られていないことが調査で判明しました。
今回の金銭的制裁に加え、ガランテはReplikaの生成AIシステムがEUのプライバシー規則、特に言語モデルの学習方法に関して適合しているかどうかを調査する別の手続きを開始しています。これは、イタリア当局がAI分野でEU内でも特に積極的な規制機関として台頭していることを示す一例です。
昨年、ガランテはChatGPTの開発元であるOpenAIにも、EUのプライバシー規則違反を理由に1,500万ユーロの罰金を科し、同チャットボットのイタリア国内での一時的な禁止措置を行いました。これらの動きは、AI企業が欧州の複雑なデータ保護法を遵守しながら事業を展開する上で直面する規制上の課題が増大していること、そしてEUのAI規則(AI Act)が2025年以降段階的に施行される中で、今後もこうした動きが続く可能性を示唆しています。