menu
close

OpenAI enttarnt chinesische Akteure hinter KI-gestützten Geheimoperationen

Der neueste Bedrohungsbericht von OpenAI zeigt eine wachsende Zahl chinesischer Gruppen, die ChatGPT für böswillige Zwecke einsetzen. Von den zehn identifizierten Operationen stammen vier aus China. Der am 5. Juni veröffentlichte Bericht beschreibt, wie diese Akteure KI-Tools nutzten, um Inhalte für soziale Medien zu generieren, Cyber-Operationen zu unterstützen und polarisierende politische Narrative zu schaffen. Auch wenn diese Operationen meist klein angelegt waren, deuten sie auf zunehmende Sicherheitsherausforderungen hin, da KI immer zugänglicher wird.
OpenAI enttarnt chinesische Akteure hinter KI-gestützten Geheimoperationen

OpenAI hat einen besorgniserregenden Trend festgestellt: Chinesische Akteure nutzen die KI-Technologie des Unternehmens für verdeckte Operationen, wie aus einem umfassenden Bedrohungsbericht vom 5. Juni 2025 hervorgeht.

Das in San Francisco ansässige KI-Unternehmen hat in den vergangenen drei Monaten zehn bösartige Operationen aufgedeckt und gestoppt, von denen vier mit China in Verbindung stehen. Diese Operationen umfassten ausgeklügelte Taktiken von Social Engineering über Cyber-Spionage bis hin zu Einflusskampagnen, die sich gegen mehrere Länder richteten.

In einem besonders auffälligen Fall, der den Namen „Sneer Review“ trägt, nutzten chinesische Akteure ChatGPT, um kurze Kommentare in mehreren Sprachen auf Social-Media-Plattformen wie TikTok, X, Reddit und Facebook zu generieren. Die Operation erstellte sowohl Beiträge als auch Kommentare, um organisches Engagement vorzutäuschen und behandelte Themen von der US-Außenpolitik bis hin zur Kritik an einem Taiwan-zentrierten Videospiel. Bemerkenswert ist, dass die Akteure sogar OpenAIs Tools einsetzten, um interne Leistungsbewertungen zu verfassen, in denen die Abläufe ihrer Operation dokumentiert wurden.

Eine weitere, mit China verbundene Kampagne gab sich als Journalisten und geopolitische Analysten aus, um Informationen zu sammeln. Hierbei wurde ChatGPT genutzt, um überzeugende Profile zu erstellen, Kommunikation zu übersetzen und Daten zu analysieren. Eine dritte Operation generierte polarisierende Inhalte, die beide Seiten kontroverser US-Politikthemen unterstützten – inklusive KI-generierter Profilbilder.

Obwohl China im Bericht besonders hervorgehoben wurde, identifizierte OpenAI auch böswillige KI-Nutzung aus Russland, Nordkorea, Iran, Kambodscha und den Philippinen. Dazu zählten unter anderem Malware-Entwicklung, die Erstellung gefälschter Lebensläufe zur Infiltration von Unternehmen und automatisierte Propaganda.

„Was wir aus China sehen, ist eine wachsende Bandbreite verdeckter Operationen mit immer vielfältigeren Taktiken“, sagte Ben Nimmo, leitender Ermittler im Intelligence-Team von OpenAI. Allerdings merkte er an, dass die meisten Operationen frühzeitig gestoppt wurden und nur ein begrenztes Publikum erreichten.

Der Bericht unterstreicht, wie KI die Hürden für böswillige Akteure senkt und gleichzeitig die Effizienz ihrer Operationen erhöht. OpenAI betont die Notwendigkeit kollektiver Wachsamkeit und erklärt: „Wir sind überzeugt, dass Austausch und Transparenz das Bewusstsein und die Bereitschaft aller Beteiligten stärken – und so zu einer besseren kollektiven Verteidigung gegen sich ständig weiterentwickelnde Bedrohungen führen.“

Source:

Latest News