Социальные сети переполнены видео, созданными искусственным интеллектом, которые рекламируют сомнительные медицинские продукты, в особенности непроверенные сексуальные средства, формируя, по мнению экспертов, наполненную обманом онлайн-среду, нацеленную на манипулирование уязвимыми потребителями.
Исследователи из Cornell Tech зафиксировали всплеск появления «ИИ-докторов» на TikTok, продвигающих сомнительные сексуальные препараты, некоторые из которых набирают миллионы просмотров. В этих видео обычно фигурируют мускулистые мужчины без рубашек или сгенерированные ИИ-персонажи, использующие эвфемизмы для обхода модерации контента и направляющие пользователей к покупке добавок с преувеличенными или полностью вымышленными свойствами.
Ещё более тревожно то, что быстро развивающиеся инструменты ИИ позволяют создавать глубокие фейки с имитацией знаменитостей и публичных фигур. Компания Resemble AI из Кремниевой долины, специализирующаяся на обнаружении глубоких фейков, выявила множество роликов, в которых такие личности, как Энтони Фаучи, актёры Роберт Де Ниро и Аманда Сейфрид, якобы одобряют непроверенные средства. Эти видео создаются путём модификации существующего контента с помощью ИИ-голосов и сложных технологий синхронизации губ.
«Как видно на этом примере, вводящий в заблуждение контент, сгенерированный ИИ, используется для продвижения добавок с преувеличенными или недоказанными заявлениями, что может поставить под угрозу здоровье потребителей», — отметил Зохаиб Ахмед, генеральный директор Resemble AI, подчеркнув опасность подобных мошеннических схем для безопасности пользователей.
Федеральная торговая комиссия США отреагировала на растущую угрозу, предложив новые правила, нацеленные на мошенничество с использованием ИИ-имитаций. В феврале 2024 года ФТК опубликовала дополнительное уведомление о подготовке нормативных актов, которые запретят имитацию личности в коммерческих целях и потенциально расширят ответственность на ИИ-платформы, осознанно предоставляющие инструменты для подобных схем.
«Мошенники используют ИИ-инструменты для имитации людей с пугающей точностью и в гораздо большем масштабе. С ростом числа мошенничеств с подделкой голоса и других ИИ-афёр защита американцев от обмана становится как никогда важной», — заявила председатель ФТК Лина М. Хан.
Высокая скорость создания коротких ИИ-видео создаёт уникальные проблемы для модерации: даже если платформы удаляют сомнительный контент, почти идентичные версии быстро появляются снова. По словам исследователей, это превращается в игру «кота и мышки», требующую более совершенных инструментов обнаружения и новых подходов к регулированию для эффективной борьбы с растущей угрозой мошенничества на базе ИИ.