Le piattaforme di social media sono invase da video generati dall’intelligenza artificiale che pubblicizzano prodotti sanitari discutibili, in particolare trattamenti sessuali non comprovati, creando quello che gli esperti definiscono un ambiente online pieno di inganni progettato per manipolare i consumatori più vulnerabili.
I ricercatori della Cornell Tech hanno documentato un’impennata di avatar 'dottori IA' su TikTok che promuovono rimedi sessuali dubbi, con alcuni video che raggiungono milioni di visualizzazioni. Questi video presentano tipicamente uomini muscolosi a torso nudo o personaggi generati dall’IA che usano un linguaggio eufemistico per eludere la moderazione dei contenuti, indirizzando gli utenti all’acquisto di integratori con affermazioni esagerate o completamente inventate.
Ancora più allarmante, i rapidi progressi degli strumenti IA hanno permesso la creazione di deepfake che imitano celebrità e personaggi pubblici. Resemble AI, un’azienda della Bay Area specializzata nel rilevamento dei deepfake, ha identificato numerosi video in cui figure pubbliche come Anthony Fauci e gli attori Robert De Niro e Amanda Seyfried sembrano sostenere trattamenti non comprovati. Questi video manipolati vengono spesso creati modificando contenuti esistenti con voci generate dall’IA e sofisticate tecnologie di sincronizzazione labiale.
"Come si vede in questo esempio, contenuti fuorvianti generati dall’IA vengono utilizzati per commercializzare integratori con affermazioni esagerate o non verificate, mettendo potenzialmente a rischio la salute dei consumatori", ha dichiarato Zohaib Ahmed, amministratore delegato di Resemble AI, sottolineando le preoccupazioni per la sicurezza dei consumatori che queste truffe comportano.
La Federal Trade Commission ha risposto a questa crescente minaccia proponendo nuove regolamentazioni mirate specificamente alle frodi di impersonificazione abilitate dall’IA. Nel febbraio 2024, la FTC ha pubblicato un avviso supplementare di proposta di regolamentazione che vieterebbe l’impersonificazione di individui nel commercio e potrebbe estendere la responsabilità alle piattaforme IA che consapevolmente forniscono strumenti utilizzati in tali truffe.
"I truffatori stanno usando strumenti IA per impersonare individui con una precisione inquietante e su scala molto più ampia. Con l’aumento delle truffe basate su clonazione vocale e altre tecnologie IA, proteggere gli americani dalle frodi di impersonificazione è più cruciale che mai", ha affermato Lina M. Khan, presidente della FTC.
La rapidità con cui vengono generati video IA di breve durata rappresenta una sfida unica per la moderazione dei contenuti: anche quando le piattaforme rimuovono contenuti discutibili, versioni quasi identiche ricompaiono rapidamente. I ricercatori affermano che ciò crea una situazione da "gioco del topo e del gatto" che richiede strumenti di rilevamento più sofisticati e nuovi approcci regolatori per combattere efficacemente la crescente minaccia delle truffe alimentate dall’IA.