OpenAI opublikowało obszerny raport zatytułowany „Disrupting malicious uses of AI: June 2025”, w którym ujawnia, jak firma zidentyfikowała i zneutralizowała 10 złośliwych kampanii wykorzystujących jej systemy AI w pierwszych miesiącach 2025 roku.
Raport szczegółowo opisuje, jak aktorzy sponsorowani przez państwa z sześciu krajów — Chin, Rosji, Korei Północnej, Iranu, Kambodży i Filipin — wykorzystywali ChatGPT oraz inne narzędzia AI do przeprowadzania oszustw rekrutacyjnych, operacji wpływu i kampanii spamerskich. Cztery z tych kampanii pochodziły z Chin i koncentrowały się na inżynierii społecznej, ukrytych operacjach wpływu oraz zagrożeniach cybernetycznych.
W jednej z kampanii, nazwanej „Sneer Review”, chińscy aktorzy zalewali platformy społecznościowe krytycznymi komentarzami wymierzonymi w tajwańską grę planszową, która poruszała tematykę oporu wobec Komunistycznej Partii Chin. Inna operacja, „Helgoland Bite”, polegała na tym, że rosyjscy aktorzy generowali treści w języku niemieckim, krytykujące USA i NATO, próbując jednocześnie wpłynąć na wybory w Niemczech w 2025 roku. Zaobserwowano również, że aktorzy z Korei Północnej wykorzystywali AI do masowej produkcji fałszywych CV na potrzeby zdalnych stanowisk technologicznych, aby uzyskać kontrolę nad firmowymi urządzeniami wydawanymi podczas procesu wdrożenia.
Zespoły ds. bezpieczeństwa OpenAI wykorzystywały sztuczną inteligencję jako mnożnik siły w swoich działaniach śledczych, co pozwoliło im wykrywać, zakłócać i ujawniać nadużycia, w tym inżynierię społeczną, cyber szpiegostwo i oszukańcze schematy rekrutacyjne. Systemy detekcji firmy wykryły nietypowe zachowania we wszystkich kampaniach, co doprowadziło do zamknięcia kont i przekazania informacji wywiadowczych partnerom platformowym.
„Wierzymy, że dzielenie się informacjami i transparentność zwiększają świadomość oraz przygotowanie wszystkich interesariuszy, prowadząc do silniejszej, zbiorowej obrony przed stale ewoluującymi przeciwnikami” — stwierdziło OpenAI w swoim raporcie. Chociaż generatywna AI nie stworzyła zupełnie nowych kategorii zagrożeń, znacząco obniżyła bariery techniczne dla przestępców i zwiększyła efektywność skoordynowanych ataków.
Eksperci ds. bezpieczeństwa podkreślają, że organizacje muszą zachować czujność wobec sposobów, w jakie przeciwnicy wykorzystują duże modele językowe w swoich operacjach, oraz korzystać z informacji wywiadowczych udostępnianych w czasie rzeczywistym przez firmy takie jak OpenAI, Google, Meta i Anthropic, aby budować silniejszą, zbiorową obronę przed tymi ewoluującymi zagrożeniami.