menu
close

Las Deepfakes de IA Inundan las Redes Sociales con Estafas de Salud Falsas

Una preocupante oleada de vídeos generados por inteligencia artificial se está propagando por plataformas como TikTok, promocionando tratamientos sexuales no probados y suplementos a través de sofisticadas tecnologías de deepfake. Estos vídeos, que a menudo presentan personajes generados por IA o imitaciones de celebridades, forman parte de lo que los investigadores describen como una 'distopía de la IA' diseñada para manipular a los consumidores y hacerles comprar productos de dudosa eficacia. La Comisión Federal de Comercio ha respondido con propuestas de regulación para combatir esta creciente amenaza a la seguridad del consumidor y la confianza en línea.
Las Deepfakes de IA Inundan las Redes Sociales con Estafas de Salud Falsas

Las plataformas de redes sociales están siendo inundadas por vídeos generados por inteligencia artificial que promocionan productos de salud dudosos, en particular tratamientos sexuales no probados, creando lo que los expertos denominan un entorno digital lleno de engaños diseñado para manipular a los consumidores más vulnerables.

Investigadores de Cornell Tech han documentado un aumento de avatares de 'doctores IA' en TikTok que promocionan remedios sexuales cuestionables, con algunos vídeos alcanzando millones de visualizaciones. Estos vídeos suelen mostrar hombres musculosos sin camiseta o personajes generados por IA que emplean un lenguaje eufemístico para eludir la moderación de contenidos, dirigiendo a los usuarios a la compra de suplementos con afirmaciones exageradas o completamente inventadas.

Más preocupante aún es que las herramientas de IA, en rápida evolución, han permitido la creación de deepfakes que suplantan a celebridades y figuras públicas. Resemble AI, una empresa del Área de la Bahía especializada en la detección de deepfakes, ha identificado numerosos vídeos en los que figuras públicas como Anthony Fauci y los actores Robert De Niro y Amanda Seyfried parecen respaldar tratamientos no probados. Estos vídeos manipulados suelen crearse modificando contenido existente con voces generadas por IA y sofisticadas tecnologías de sincronización labial.

"Como se observa en este ejemplo, el contenido engañoso generado por IA se está utilizando para comercializar suplementos con afirmaciones exageradas o no verificadas, lo que podría poner en riesgo la salud de los consumidores", declaró Zohaib Ahmed, director ejecutivo de Resemble AI, subrayando la preocupación por la seguridad de los consumidores ante estas estafas.

La Comisión Federal de Comercio ha respondido a esta creciente amenaza proponiendo nuevas regulaciones dirigidas específicamente al fraude de suplantación facilitado por IA. En febrero de 2024, la FTC publicó un aviso complementario de propuesta normativa que prohibiría la suplantación de personas en el comercio y podría extender la responsabilidad a las plataformas de IA que, a sabiendas, proporcionen herramientas utilizadas en este tipo de estafas.

"Los estafadores están utilizando herramientas de IA para suplantar a personas con una precisión inquietante y a una escala mucho mayor. Con el aumento de las estafas impulsadas por clonación de voz y otras técnicas de IA, proteger a los estadounidenses del fraude por suplantación es más crucial que nunca", afirmó Lina M. Khan, presidenta de la FTC.

El ritmo acelerado de generación de vídeos cortos mediante IA plantea retos únicos para la moderación de contenidos, ya que incluso cuando las plataformas eliminan material cuestionable, versiones casi idénticas reaparecen rápidamente. Los investigadores señalan que esto crea una situación de "juego del topo" que requiere herramientas de detección más sofisticadas y enfoques regulatorios novedosos para combatir eficazmente la creciente amenaza de las estafas potenciadas por IA.

Source: Nbcrightnow

Latest News