menu
close

Deepfakes de IA Invadem Redes Sociais com Falsos Esquemas de Saúde

Uma onda preocupante de vídeos gerados por IA está se espalhando por plataformas como o TikTok, promovendo tratamentos sexuais não comprovados e suplementos por meio de sofisticadas tecnologias de deepfake. Esses vídeos, frequentemente estrelados por personas criadas por IA ou imitações de celebridades, fazem parte do que pesquisadores descrevem como uma 'distopia de IA' projetada para manipular consumidores a comprarem produtos duvidosos. A Comissão Federal de Comércio dos EUA respondeu com propostas de regulamentação para combater essa ameaça crescente à segurança do consumidor e à confiança online.
Deepfakes de IA Invadem Redes Sociais com Falsos Esquemas de Saúde

Plataformas de redes sociais estão sendo inundadas por vídeos gerados por inteligência artificial que promovem produtos de saúde duvidosos, especialmente tratamentos sexuais não comprovados, criando o que especialistas chamam de um ambiente online repleto de enganações voltadas para manipular consumidores vulneráveis.

Pesquisadores da Cornell Tech documentaram um aumento de avatares de 'médicos de IA' no TikTok promovendo supostos remédios sexuais, com alguns vídeos alcançando milhões de visualizações. Esses conteúdos geralmente apresentam homens musculosos sem camisa ou personas criadas por IA utilizando linguagem eufemística para driblar a moderação de conteúdo, direcionando usuários à compra de suplementos com alegações exageradas ou totalmente inventadas.

Mais alarmante ainda, ferramentas de IA em rápida evolução têm possibilitado a criação de deepfakes que imitam celebridades e figuras públicas. A Resemble AI, empresa da Bay Area especializada em detecção de deepfakes, identificou diversos vídeos em que figuras públicas como Anthony Fauci e os atores Robert De Niro e Amanda Seyfried parecem endossar tratamentos não comprovados. Esses vídeos manipulados são frequentemente criados a partir da modificação de conteúdos existentes com vozes geradas por IA e tecnologia avançada de sincronização labial.

"Como visto neste exemplo, conteúdos enganosos gerados por IA estão sendo usados para comercializar suplementos com alegações exageradas ou não verificadas, colocando potencialmente a saúde dos consumidores em risco", afirmou Zohaib Ahmed, diretor-executivo da Resemble AI, destacando as preocupações com a segurança do consumidor que esses golpes apresentam.

A Comissão Federal de Comércio dos EUA (FTC) respondeu a essa ameaça crescente propondo novas regulamentações direcionadas especificamente à fraude de personificação habilitada por IA. Em fevereiro de 2024, a FTC publicou um aviso suplementar de proposta de regulamentação que proibiria a personificação de indivíduos em atividades comerciais e poderia estender a responsabilidade para plataformas de IA que conscientemente forneçam ferramentas usadas nesses golpes.

"Fraudadores estão usando ferramentas de IA para personificar indivíduos com uma precisão assustadora e em escala muito maior. Com o aumento de clonagem de voz e outros golpes impulsionados por IA, proteger os americanos contra fraudes de personificação é mais crítico do que nunca", afirmou Lina M. Khan, presidente da FTC.

A velocidade com que vídeos curtos gerados por IA são produzidos apresenta desafios únicos para a moderação de conteúdo, já que, mesmo quando plataformas removem conteúdos questionáveis, versões quase idênticas rapidamente reaparecem. Pesquisadores afirmam que isso cria um cenário de 'jogo de gato e rato', exigindo ferramentas de detecção mais sofisticadas e abordagens regulatórias inovadoras para combater de forma eficaz a crescente ameaça dos golpes alimentados por IA.

Source: Nbcrightnow

Latest News