menu
close

Deepfake'i AI zalewają media społecznościowe fałszywymi oszustwami zdrowotnymi

Niepokojąca fala filmów generowanych przez sztuczną inteligencję rozprzestrzenia się na platformach takich jak TikTok, promując nieudowodnione terapie seksualne i suplementy za pomocą zaawansowanej technologii deepfake. Te filmy, często przedstawiające wygenerowane przez AI postacie lub imitacje celebrytów, są częścią tego, co badacze określają mianem 'AI dystopii' mającej na celu manipulowanie konsumentami i nakłanianie ich do zakupu wątpliwych produktów. Federalna Komisja Handlu odpowiedziała na to zagrożenie, proponując nowe regulacje mające chronić konsumentów i odbudować zaufanie do internetu.
Deepfake'i AI zalewają media społecznościowe fałszywymi oszustwami zdrowotnymi

Platformy mediów społecznościowych są zalewane przez filmy generowane przez sztuczną inteligencję, które promują wątpliwe produkty zdrowotne, w szczególności nieudowodnione terapie seksualne, tworząc – jak twierdzą eksperci – środowisko pełne dezinformacji mające na celu manipulowanie podatnymi użytkownikami.

Badacze z Cornell Tech udokumentowali gwałtowny wzrost liczby 'AI-doktorów' na TikToku, którzy promują wątpliwe środki na poprawę życia seksualnego. Niektóre z tych filmów osiągają miliony wyświetleń. Zazwyczaj występują w nich muskularni, roznegliżowani mężczyźni lub wygenerowane przez AI postacie, posługujące się eufemistycznym językiem, by obejść moderację treści i nakłaniające użytkowników do zakupu suplementów, których działanie jest wyolbrzymione lub całkowicie zmyślone.

Jeszcze bardziej niepokojące jest to, że szybko rozwijające się narzędzia AI umożliwiają tworzenie deepfake’ów, w których podszywa się pod celebrytów i osoby publiczne. Firma Resemble AI z Bay Area, specjalizująca się w wykrywaniu deepfake’ów, zidentyfikowała liczne filmy, w których takie osoby jak Anthony Fauci czy aktorzy Robert De Niro i Amanda Seyfried rzekomo promują nieudowodnione terapie. Manipulowane filmy powstają poprzez modyfikację istniejących materiałów przy użyciu głosów generowanych przez AI oraz zaawansowanej technologii synchronizacji ust.

'Jak pokazuje ten przykład, wprowadzające w błąd treści generowane przez AI są wykorzystywane do promowania suplementów z przesadzonymi lub niezweryfikowanymi obietnicami, co potencjalnie zagraża zdrowiu konsumentów' – powiedział Zohaib Ahmed, dyrektor generalny Resemble AI, podkreślając zagrożenia dla bezpieczeństwa konsumentów, jakie niosą te oszustwa.

Federalna Komisja Handlu odpowiedziała na rosnące zagrożenie, proponując nowe regulacje wymierzone w oszustwa z wykorzystaniem AI polegające na podszywaniu się pod inne osoby. W lutym 2024 roku FTC opublikowała dodatkowe zawiadomienie o proponowanych przepisach, które zakazywałyby podszywania się pod osoby fizyczne w handlu i potencjalnie rozszerzałyby odpowiedzialność na platformy AI świadomie udostępniające narzędzia wykorzystywane w takich oszustwach.

'Oszustowie wykorzystują narzędzia AI do podszywania się pod ludzi z niepokojącą precyzją i na znacznie większą skalę. Wraz ze wzrostem liczby oszustw opartych na klonowaniu głosu i innych technologiach AI, ochrona Amerykanów przed oszustwami związanymi z podszywaniem się jest ważniejsza niż kiedykolwiek' – powiedziała przewodnicząca FTC Lina M. Khan.

Szybkie tempo powstawania krótkich filmów generowanych przez AI stanowi wyjątkowe wyzwanie dla moderacji treści – nawet gdy platformy usuwają podejrzane materiały, niemal identyczne wersje pojawiają się ponownie. Zdaniem badaczy prowadzi to do sytuacji 'gry w kotka i myszkę', która wymaga bardziej zaawansowanych narzędzi wykrywających oraz nowych rozwiązań regulacyjnych, by skutecznie przeciwdziałać narastającemu zagrożeniu oszustwami napędzanymi przez AI.

Source: Nbcrightnow

Latest News