menu
close

Deepfakes de IA Inundan Redes Sociales con Estafas de Salud Falsas

Una preocupante ola de videos generados por inteligencia artificial está proliferando en plataformas como TikTok, promoviendo tratamientos sexuales no comprobados y suplementos a través de sofisticadas tecnologías de deepfake. Estos videos, que suelen mostrar personas generadas por IA o imitaciones de celebridades, forman parte de lo que los investigadores describen como una 'distopía de IA' diseñada para manipular a los consumidores y hacerlos comprar productos dudosos. La Comisión Federal de Comercio ha respondido con regulaciones propuestas para combatir esta creciente amenaza a la seguridad del consumidor y la confianza en línea.
Deepfakes de IA Inundan Redes Sociales con Estafas de Salud Falsas

Las plataformas de redes sociales están siendo inundadas con videos generados por inteligencia artificial que promocionan productos de salud dudosos, en particular tratamientos sexuales no comprobados, creando lo que los expertos llaman un entorno en línea lleno de engaños diseñado para manipular a consumidores vulnerables.

Investigadores de Cornell Tech han documentado un aumento de avatares de 'doctores de IA' en TikTok que promocionan remedios sexuales cuestionables, con algunos videos alcanzando millones de vistas. Estos videos suelen mostrar hombres musculosos sin camisa o personajes generados por IA que utilizan lenguaje eufemístico para evadir la moderación de contenido, dirigiendo a los usuarios a comprar suplementos con afirmaciones exageradas o completamente falsas.

Más preocupante aún, las herramientas de IA en rápida evolución han permitido la creación de deepfakes que imitan a celebridades y figuras públicas. Resemble AI, una empresa del Área de la Bahía especializada en la detección de deepfakes, ha identificado numerosos videos en los que figuras públicas como Anthony Fauci y los actores Robert De Niro y Amanda Seyfried parecen respaldar tratamientos no comprobados. Estos videos manipulados suelen crearse modificando contenido existente con voces generadas por IA y tecnología avanzada de sincronización labial.

"Como se observa en este ejemplo, el contenido engañoso generado por IA se está utilizando para comercializar suplementos con afirmaciones exageradas o no verificadas, lo que potencialmente pone en riesgo la salud de los consumidores", señaló Zohaib Ahmed, director ejecutivo de Resemble AI, destacando las preocupaciones sobre la seguridad del consumidor que presentan estas estafas.

La Comisión Federal de Comercio ha respondido a esta creciente amenaza proponiendo nuevas regulaciones dirigidas específicamente al fraude de suplantación facilitado por IA. En febrero de 2024, la FTC publicó un aviso complementario de propuesta de reglamentación que prohibiría la suplantación de individuos en el comercio y podría extender la responsabilidad a las plataformas de IA que, a sabiendas, proporcionen herramientas utilizadas en estas estafas.

"Los estafadores están utilizando herramientas de IA para suplantar a personas con una precisión inquietante y a una escala mucho mayor. Con el aumento de la clonación de voz y otras estafas impulsadas por IA, proteger a los estadounidenses del fraude por suplantación es más crítico que nunca", declaró Lina M. Khan, presidenta de la FTC.

El ritmo acelerado de generación de videos cortos con IA presenta desafíos únicos para la moderación de contenido, ya que incluso cuando las plataformas eliminan contenido cuestionable, versiones casi idénticas reaparecen rápidamente. Los investigadores afirman que esto crea una situación de 'juego del topo' que requiere herramientas de detección más sofisticadas y enfoques regulatorios novedosos para combatir eficazmente la creciente amenaza de las estafas impulsadas por IA.

Source: Nbcrightnow

Latest News