menu
close

KI-Deepfakes überschwemmen soziale Medien mit gefälschten Gesundheitsschwindeln

Eine beunruhigende Welle von KI-generierten Videos verbreitet sich auf Plattformen wie TikTok und bewirbt unbewiesene Sexualbehandlungen und Nahrungsergänzungsmittel mithilfe ausgefeilter Deepfake-Technologie. Diese Videos, die häufig KI-generierte Avatare oder Promi-Imitationen zeigen, sind Teil dessen, was Forscher als eine 'KI-Dystopie' bezeichnen, die darauf abzielt, Verbraucher zum Kauf fragwürdiger Produkte zu verleiten. Die US-Verbraucherschutzbehörde Federal Trade Commission hat mit neuen Regulierungsvorschlägen auf diese wachsende Bedrohung für Verbrauchersicherheit und Online-Vertrauen reagiert.
KI-Deepfakes überschwemmen soziale Medien mit gefälschten Gesundheitsschwindeln

Soziale Medien werden derzeit von KI-generierten Videos überschwemmt, die zweifelhafte Gesundheitsprodukte – insbesondere unbewiesene Sexualbehandlungen – anpreisen. Experten sprechen von einem von Täuschung geprägten Online-Umfeld, das gezielt darauf ausgelegt ist, leichtgläubige Verbraucher zu manipulieren.

Forscher der Cornell Tech haben einen Anstieg sogenannter 'KI-Ärzte' auf TikTok dokumentiert, die fragwürdige Sexualmittel bewerben. Manche dieser Videos erzielen Millionen von Aufrufen. Typischerweise treten darin muskulöse, oberkörperfreie Männer oder KI-generierte Avatare auf, die sich einer beschönigenden Sprache bedienen, um die Inhaltsmoderation zu umgehen, und Nutzer dazu verleiten, Nahrungsergänzungsmittel mit übertriebenen oder frei erfundenen Versprechen zu kaufen.

Noch alarmierender ist, dass sich KI-Tools rasant weiterentwickeln und die Erstellung von Deepfakes ermöglichen, die Prominente und öffentliche Persönlichkeiten imitieren. Das Unternehmen Resemble AI aus dem Silicon Valley, spezialisiert auf Deepfake-Erkennung, hat zahlreiche Videos identifiziert, in denen Persönlichkeiten wie Anthony Fauci sowie die Schauspieler Robert De Niro und Amanda Seyfried scheinbar unbewiesene Behandlungen empfehlen. Diese manipulierten Videos entstehen häufig, indem bestehendes Material mit KI-generierten Stimmen und ausgefeilter Lippen-Synchronisationstechnologie verändert wird.

„Wie dieses Beispiel zeigt, werden irreführende KI-generierte Inhalte genutzt, um Nahrungsergänzungsmittel mit übertriebenen oder nicht belegten Behauptungen zu vermarkten und damit potenziell die Gesundheit der Verbraucher zu gefährden“, erklärt Zohaib Ahmed, Geschäftsführer von Resemble AI, und unterstreicht die Risiken für die Verbrauchersicherheit, die von diesen Betrugsmaschen ausgehen.

Die US-Verbraucherschutzbehörde Federal Trade Commission (FTC) hat auf diese wachsende Bedrohung mit neuen Regulierungsvorschlägen reagiert, die gezielt gegen KI-gestützten Identitätsbetrug vorgehen sollen. Im Februar 2024 veröffentlichte die FTC eine ergänzende Mitteilung zu geplanten Regelungen, die das Imitieren von Personen im Geschäftsverkehr verbieten und die Haftung möglicherweise auch auf KI-Plattformen ausweiten würden, die wissentlich Werkzeuge für solche Betrugsmaschen bereitstellen.

„Betrüger nutzen KI-Tools, um Personen mit unheimlicher Präzision und in großem Maßstab zu imitieren. Angesichts der Zunahme von Stimmklon- und anderen KI-basierten Betrugsfällen ist der Schutz der Amerikaner vor Identitätsbetrug wichtiger denn je“, sagte FTC-Vorsitzende Lina M. Khan.

Die schnelle Produktion von KI-generierten Kurzvideos stellt die Inhaltsmoderation vor besondere Herausforderungen: Selbst wenn Plattformen fragwürdige Inhalte entfernen, tauchen fast identische Versionen rasch wieder auf. Forscher sprechen von einem „Whack-a-Mole“-Problem, das den Einsatz fortschrittlicher Erkennungstechnologien und neuer regulatorischer Ansätze erfordert, um der wachsenden Bedrohung durch KI-basierte Betrugsmaschen wirksam zu begegnen.

Source: Nbcrightnow

Latest News