menu
close

AI-діпфейки заполонили соцмережі фейковими медичними шахрайствами

Тривожна хвиля відео, згенерованих штучним інтелектом, поширюється на платформах на кшталт TikTok, просуваючи неперевірені сексуальні засоби та добавки за допомогою витонченої технології діпфейків. Ці відео, в яких часто з’являються штучно створені персонажі або імітації знаменитостей, є частиною того, що дослідники називають «AI-дистопією», спрямованою на маніпулювання споживачами для купівлі сумнівних продуктів. Федеральна торгова комісія США вже відреагувала, запропонувавши нові регулювання для боротьби з цією зростаючою загрозою безпеці споживачів та довірі до онлайн-середовища.
AI-діпфейки заполонили соцмережі фейковими медичними шахрайствами

Соціальні мережі масово наповнюються відео, згенерованими штучним інтелектом, які рекламують сумнівні медичні продукти, зокрема неперевірені засоби для сексуального здоров’я, створюючи, за словами експертів, онлайн-середовище, переповнене обманом і спрямоване на маніпулювання вразливими споживачами.

Дослідники з Cornell Tech зафіксували сплеск появи «AI-лікарів» на TikTok, які просувають сумнівні сексуальні засоби, причому деякі відео набирають мільйони переглядів. У таких роликах зазвичай з’являються м’язисті чоловіки без сорочок або штучно створені персонажі, які використовують евфемізми, щоб оминути модерацію контенту, і спрямовують користувачів купувати добавки з перебільшеними або повністю вигаданими обіцянками.

Ще тривожніше те, що стрімкий розвиток AI-інструментів дозволяє створювати діпфейки із зображенням знаменитостей та публічних осіб. Компанія Resemble AI з району затоки Сан-Франциско, що спеціалізується на виявленні діпфейків, ідентифікувала численні відео, в яких такі відомі особи, як Ентоні Фаучі, актори Роберт Де Ніро та Аманда Сейфрід, начебто рекламують неперевірені засоби. Такі маніпульовані відео часто створюють шляхом зміни існуючого контенту за допомогою AI-генерованих голосів і складної технології синхронізації губ.

«Як видно з цього прикладу, оманливий AI-контент використовується для просування добавок із перебільшеними або непідтвердженими обіцянками, що потенційно ставить під загрозу здоров’я споживачів», — зазначив генеральний директор Resemble AI Зохаіб Ахмед, підкреслюючи небезпеку таких шахрайств для споживачів.

Федеральна торгова комісія США вже відреагувала на цю зростаючу загрозу, запропонувавши нові регулювання, спрямовані безпосередньо на шахрайство з імітацією особи за допомогою AI. У лютому 2024 року FTC опублікувала додаткове повідомлення про запропоноване регулювання, яке забороняє імітацію особи у комерційній діяльності та потенційно розширює відповідальність на AI-платформи, які свідомо надають інструменти для таких шахрайств.

«Шахраї використовують AI-інструменти для імітації особистостей з лякаючою точністю та у значно більших масштабах. З огляду на зростання кількості шахрайств із клонуванням голосу та іншими AI-технологіями, захист американців від шахрайства з імітацією особи є важливішим, ніж будь-коли», — заявила голова FTC Ліна М. Хан.

Швидкість створення коротких AI-відео створює унікальні виклики для модерації контенту: навіть коли платформи видаляють сумнівний контент, майже ідентичні версії швидко з’являються знову. Дослідники зазначають, що це створює ситуацію «битви з гідрою», яка вимагає більш досконалих інструментів виявлення та нових регуляторних підходів для ефективної боротьби зі зростаючою загрозою AI-шахрайств.

Source: Nbcrightnow

Latest News