Platformele de socializare sunt inundate de videoclipuri generate de inteligența artificială care promovează produse de sănătate dubioase, în special tratamente sexuale neprobate, creând ceea ce experții numesc un mediu online plin de înșelăciuni menit să manipuleze consumatorii vulnerabili.
Cercetătorii de la Cornell Tech au documentat o creștere a avatarurilor „doctor AI” pe TikTok care promovează remedii sexuale discutabile, unele videoclipuri ajungând la milioane de vizualizări. Aceste videoclipuri prezintă de obicei bărbați musculoși, fără tricou, sau personaje generate de AI care folosesc un limbaj eufemistic pentru a ocoli moderarea conținutului, direcționând utilizatorii către achiziționarea de suplimente cu afirmații exagerate sau complet fabricate.
Mai îngrijorător este faptul că instrumentele AI care evoluează rapid au permis crearea de deepfake-uri ce imită celebrități și persoane publice. Resemble AI, o firmă din Bay Area specializată în detectarea deepfake-urilor, a identificat numeroase videoclipuri în care figuri publice precum Anthony Fauci și actorii Robert De Niro și Amanda Seyfried par să susțină tratamente neprobate. Aceste videoclipuri manipulate sunt adesea create prin modificarea conținutului existent cu voci generate de AI și tehnologie avansată de sincronizare a buzelor.
„Așa cum se vede în acest exemplu, conținutul înșelător generat de AI este folosit pentru a promova suplimente cu afirmații exagerate sau neverificate, punând potențial sănătatea consumatorilor în pericol”, a declarat Zohaib Ahmed, directorul executiv al Resemble AI, subliniind preocupările legate de siguranța consumatorilor pe care le ridică aceste escrocherii.
Comisia Federală pentru Comerț a reacționat la această amenințare în creștere propunând noi reglementări care vizează în mod specific frauda de tip imitație facilitată de AI. În februarie 2024, FTC a publicat un anunț suplimentar de propunere de reglementare care ar interzice imitarea persoanelor în scop comercial și ar putea extinde răspunderea și asupra platformelor AI care oferă cu bună știință instrumente folosite în astfel de escrocherii.
„Escrocii folosesc instrumente AI pentru a imita persoane cu o precizie înfricoșătoare și la o scară mult mai largă. Odată cu creșterea clonării vocale și a altor escrocherii bazate pe AI, protejarea americanilor de frauda prin imitație este mai critică ca niciodată”, a declarat Lina M. Khan, președinta FTC.
Ritmul rapid de generare a videoclipurilor AI de scurtă durată prezintă provocări unice pentru moderarea conținutului, deoarece chiar și atunci când platformele elimină conținutul discutabil, apar rapid versiuni aproape identice. Cercetătorii spun că această situație creează un efect de „whack-a-mole”, necesitând instrumente de detectare mai sofisticate și abordări de reglementare inovatoare pentru a combate eficient amenințarea tot mai mare a escrocheriilor alimentate de AI.