menu
close

OpenAI erkennt zunehmenden chinesischen Missbrauch von ChatGPT für verdeckte Operationen

OpenAI berichtete am 5. Juni 2025, dass eine wachsende Zahl chinesischer Gruppen seine KI-Technologie für verdeckte Operationen missbraucht, darunter das Erstellen polarisierender Social-Media-Inhalte und die Unterstützung von Cyberaktivitäten. Obwohl diese Operationen im Umfang und in den Taktiken zunehmen, bleiben sie relativ klein und erreichen nur ein begrenztes Publikum. Die Erkenntnisse unterstreichen die anhaltenden Bedenken hinsichtlich des Missbrauchspotenzials generativer KI bei der Erstellung menschenähnlicher Texte, Bilder und Audiodateien zu böswilligen Zwecken.
OpenAI erkennt zunehmenden chinesischen Missbrauch von ChatGPT für verdeckte Operationen

OpenAI hat laut einem am 5. Juni veröffentlichten Bericht einen wachsenden Trend chinesischer Gruppen festgestellt, die seine Künstliche-Intelligenz-Technologie für verdeckte Operationen missbrauchen. Das in San Francisco ansässige Unternehmen, das kürzlich nach einer Rekord-Finanzierungsrunde von 40 Milliarden US-Dollar mit 300 Milliarden US-Dollar bewertet wurde, hat als Reaktion mehrere mit diesen Aktivitäten in Verbindung stehende Konten gesperrt.

In einem besonders auffälligen Fall, von OpenAI-Ermittlern als „Sneer Review“ bezeichnet, erstellten die Betreiber Social-Media-Beiträge zu politisch sensiblen Themen mit China-Bezug. Dazu gehörten Kritik an einem taiwanzentrierten Videospiel, falsche Anschuldigungen gegen eine pakistanische Aktivistin und Inhalte im Zusammenhang mit der Schließung von USAID. Einige Beiträge kritisierten zudem die Zollpolitik des US-Präsidenten Donald Trump. Die Operation war so ausgefeilt, dass sowohl Beiträge als auch Kommentare generiert wurden, um den Anschein organischer Interaktionen zu erwecken.

Eine zweite Operation involvierte mit China verbundene Bedrohungsakteure, die ChatGPT zur Unterstützung verschiedener Phasen ihrer Cyber-Operationen nutzten. Dies umfasste Open-Source-Recherchen, die Modifikation von Skripten, Fehlerbehebungen bei Systemkonfigurationen sowie die Entwicklung von Tools für Passwort-Brute-Force-Angriffe und die Automatisierung von Social Media. Besonders besorgniserregend war die Entdeckung, dass diese Akteure OpenAI-Tools auch zur Erstellung interner Dokumente verwendeten, darunter Leistungsbeurteilungen, die ihre Aktivitäten dokumentierten.

Ein drittes Beispiel offenbarte eine aus China stammende Einflussoperation, die polarisierende Social-Media-Inhalte generierte, die beide Seiten kontroverser Themen innerhalb des US-Politikdiskurses unterstützten. Dieser Ansatz scheint darauf ausgelegt zu sein, bestehende politische Spaltungen auszunutzen, anstatt eine bestimmte ideologische Position zu fördern. Ben Nimmo, leitender Ermittler im Intelligence-Team von OpenAI, betonte, dass diese Operationen zwar „eine wachsende Bandbreite verdeckter Operationen mit einer wachsenden Bandbreite an Taktiken“ zeigten, aber in der Regel bereits in frühen Phasen gestoppt wurden, bevor sie ein großes Publikum erreichten.

Der OpenAI-Bericht erwähnte zudem die Unterbindung verdeckter Einflussoperationen aus anderen Ländern, darunter Russland und Iran, sowie verschiedener Betrugsversuche mit Verbindungen nach Kambodscha und Nordkorea. Das Unternehmen überwacht und berichtet regelmäßig über böswillige Aktivitäten auf seiner Plattform als Teil seines Engagements für eine verantwortungsvolle KI-Entwicklung.

Das chinesische Außenministerium hat auf Anfragen zu den Erkenntnissen von OpenAI bislang nicht reagiert.

Source:

Latest News