OpenAI zidentyfikowało niepokojący trend wykorzystywania przez chińskich aktorów ich technologii AI do prowadzenia tajnych operacji – wynika z obszernego raportu o zagrożeniach opublikowanego 5 czerwca 2025 roku.
Firma AI z San Francisco udaremniła w ciągu ostatnich trzech miesięcy dziesięć złośliwych operacji, z czego cztery były powiązane z Chinami. Operacje te obejmowały zaawansowane taktyki z zakresu inżynierii społecznej, cyber szpiegostwa oraz kampanii wpływu wymierzonych w wiele krajów.
W jednej z głośnych spraw, nazwanej „Sneer Review”, chińscy operatorzy wykorzystywali ChatGPT do generowania krótkich komentarzy na platformach społecznościowych, takich jak TikTok, X, Reddit i Facebook, w wielu językach. Operacja polegała na tworzeniu zarówno postów, jak i komentarzy, aby symulować organiczne zaangażowanie użytkowników, skupiając się na tematach od amerykańskiej polityki zagranicznej po krytykę gry komputerowej związanej z Tajwanem. Co ciekawe, aktorzy używali nawet narzędzi OpenAI do sporządzania wewnętrznych ocen wydajności dokumentujących procedury operacji.
Inna kampania powiązana z Chinami podszywała się pod dziennikarzy i analityków geopolitycznych w celu zbierania informacji wywiadowczych, wykorzystując ChatGPT do tworzenia przekonujących profili, tłumaczenia komunikacji oraz analizy danych. Trzecia operacja generowała spolaryzowane treści wspierające obie strony kontrowersyjnych tematów politycznych w USA, wykorzystując do tego również wygenerowane przez AI zdjęcia profilowe.
Chociaż Chiny były mocno obecne w raporcie, OpenAI zidentyfikowało także złośliwe wykorzystanie AI przez aktorów z Rosji, Korei Północnej, Iranu, Kambodży i Filipin. Działania te obejmowały rozwój złośliwego oprogramowania, tworzenie fałszywych CV w celu infiltracji firm oraz automatyzację propagandy.
„To, co widzimy ze strony Chin, to coraz szerszy wachlarz tajnych operacji z użyciem coraz bardziej zróżnicowanych taktyk” – powiedział Ben Nimmo, główny śledczy w zespole ds. wywiadu OpenAI. Zaznaczył jednak, że większość operacji została przerwana na wczesnym etapie i dotarła do ograniczonego grona odbiorców.
Raport podkreśla, że sztuczna inteligencja obniża bariery wejścia dla złośliwych aktorów, jednocześnie zwiększając efektywność ich działań. OpenAI podkreśliło potrzebę zbiorowej czujności, stwierdzając: „Wierzymy, że dzielenie się informacjami i transparentność zwiększają świadomość i przygotowanie wszystkich interesariuszy, prowadząc do silniejszej, zbiorowej obrony przed stale ewoluującymi przeciwnikami”.