As plataformas de redes sociais estão a ser inundadas por vídeos gerados por IA que promovem produtos de saúde duvidosos, em particular tratamentos sexuais não comprovados, criando aquilo que os especialistas classificam como um ambiente online repleto de enganos, destinado a manipular consumidores vulneráveis.
Investigadores do Cornell Tech documentaram um aumento de avatares de 'médicos de IA' no TikTok a promover remédios sexuais questionáveis, com alguns vídeos a atingirem milhões de visualizações. Estes vídeos apresentam, tipicamente, homens musculados em tronco nu ou personagens geradas por IA que utilizam linguagem eufemística para contornar a moderação de conteúdos, encaminhando os utilizadores para a compra de suplementos com alegações exageradas ou totalmente fabricadas.
Mais preocupante ainda, as ferramentas de IA em rápida evolução permitiram a criação de deepfakes que imitam celebridades e figuras públicas. A Resemble AI, uma empresa da Bay Area especializada na deteção de deepfakes, identificou inúmeros vídeos em que figuras públicas como Anthony Fauci e os atores Robert De Niro e Amanda Seyfried parecem endossar tratamentos não comprovados. Estes vídeos manipulados são frequentemente criados a partir da modificação de conteúdos existentes com vozes geradas por IA e tecnologia avançada de sincronização labial.
'Como se vê neste exemplo, conteúdos enganosos gerados por IA estão a ser usados para comercializar suplementos com alegações exageradas ou não verificadas, colocando potencialmente em risco a saúde dos consumidores', afirmou Zohaib Ahmed, diretor executivo da Resemble AI, sublinhando as preocupações de segurança para os consumidores que estas burlas representam.
A Comissão Federal do Comércio respondeu a esta ameaça crescente propondo novas regulamentações dirigidas especificamente à fraude de personificação facilitada por IA. Em fevereiro de 2024, a FTC publicou um aviso suplementar de proposta de regulamentação que proibiria a personificação de indivíduos no comércio e poderia alargar a responsabilidade às plataformas de IA que, conscientemente, forneçam ferramentas usadas nestas burlas.
'Os burlões estão a usar ferramentas de IA para personificar indivíduos com uma precisão assustadora e numa escala muito maior. Com o aumento da clonagem de voz e de outras burlas impulsionadas por IA, proteger os americanos contra fraudes de personificação é mais crítico do que nunca', afirmou Lina M. Khan, presidente da FTC.
A rapidez com que são gerados vídeos curtos por IA apresenta desafios únicos à moderação de conteúdos, já que mesmo quando as plataformas removem conteúdos questionáveis, versões quase idênticas reaparecem rapidamente. Os investigadores afirmam que isto cria uma situação de 'jogo do gato e do rato', exigindo ferramentas de deteção mais sofisticadas e novas abordagens regulatórias para combater eficazmente a crescente ameaça das burlas potenciadas por IA.