Platformy mediów społecznościowych są zalewane przez filmy generowane przez sztuczną inteligencję, które promują wątpliwe produkty zdrowotne, w szczególności nieudowodnione terapie seksualne, tworząc – jak twierdzą eksperci – środowisko pełne dezinformacji mające na celu manipulowanie podatnymi użytkownikami.
Badacze z Cornell Tech udokumentowali gwałtowny wzrost liczby 'AI-doktorów' na TikToku, którzy promują wątpliwe środki na poprawę życia seksualnego. Niektóre z tych filmów osiągają miliony wyświetleń. Zazwyczaj występują w nich muskularni, roznegliżowani mężczyźni lub wygenerowane przez AI postacie, posługujące się eufemistycznym językiem, by obejść moderację treści i nakłaniające użytkowników do zakupu suplementów, których działanie jest wyolbrzymione lub całkowicie zmyślone.
Jeszcze bardziej niepokojące jest to, że szybko rozwijające się narzędzia AI umożliwiają tworzenie deepfake’ów, w których podszywa się pod celebrytów i osoby publiczne. Firma Resemble AI z Bay Area, specjalizująca się w wykrywaniu deepfake’ów, zidentyfikowała liczne filmy, w których takie osoby jak Anthony Fauci czy aktorzy Robert De Niro i Amanda Seyfried rzekomo promują nieudowodnione terapie. Manipulowane filmy powstają poprzez modyfikację istniejących materiałów przy użyciu głosów generowanych przez AI oraz zaawansowanej technologii synchronizacji ust.
'Jak pokazuje ten przykład, wprowadzające w błąd treści generowane przez AI są wykorzystywane do promowania suplementów z przesadzonymi lub niezweryfikowanymi obietnicami, co potencjalnie zagraża zdrowiu konsumentów' – powiedział Zohaib Ahmed, dyrektor generalny Resemble AI, podkreślając zagrożenia dla bezpieczeństwa konsumentów, jakie niosą te oszustwa.
Federalna Komisja Handlu odpowiedziała na rosnące zagrożenie, proponując nowe regulacje wymierzone w oszustwa z wykorzystaniem AI polegające na podszywaniu się pod inne osoby. W lutym 2024 roku FTC opublikowała dodatkowe zawiadomienie o proponowanych przepisach, które zakazywałyby podszywania się pod osoby fizyczne w handlu i potencjalnie rozszerzałyby odpowiedzialność na platformy AI świadomie udostępniające narzędzia wykorzystywane w takich oszustwach.
'Oszustowie wykorzystują narzędzia AI do podszywania się pod ludzi z niepokojącą precyzją i na znacznie większą skalę. Wraz ze wzrostem liczby oszustw opartych na klonowaniu głosu i innych technologiach AI, ochrona Amerykanów przed oszustwami związanymi z podszywaniem się jest ważniejsza niż kiedykolwiek' – powiedziała przewodnicząca FTC Lina M. Khan.
Szybkie tempo powstawania krótkich filmów generowanych przez AI stanowi wyjątkowe wyzwanie dla moderacji treści – nawet gdy platformy usuwają podejrzane materiały, niemal identyczne wersje pojawiają się ponownie. Zdaniem badaczy prowadzi to do sytuacji 'gry w kotka i myszkę', która wymaga bardziej zaawansowanych narzędzi wykrywających oraz nowych rozwiązań regulacyjnych, by skutecznie przeciwdziałać narastającemu zagrożeniu oszustwami napędzanymi przez AI.