menu
close

OpenAI vereitelt 10 staatlich gesteuerte KI-Missbrauchskampagnen

OpenAIs Bericht vom Juni 2025 beschreibt, wie das Unternehmen zehn böswillige Kampagnen aufdeckte und stoppte, die ChatGPT Anfang 2025 für Jobbetrug, Einflussoperationen und Spam-Aktivitäten missbrauchten. Viele dieser Aktionen wurden von staatlichen Akteuren aus China, Russland und Iran gesteuert, die KI-Tools nutzten, um Betrugsmaschen, Cyberangriffe und globale Einflusskampagnen zu verstärken. Zwar hat generative KI keine völlig neuen Bedrohungskategorien geschaffen, doch sie senkt die technischen Hürden für Angreifer erheblich und steigert die Effizienz koordinierter Attacken.
OpenAI vereitelt 10 staatlich gesteuerte KI-Missbrauchskampagnen

OpenAI hat einen umfassenden Bericht mit dem Titel „Disrupting malicious uses of AI: June 2025“ veröffentlicht, in dem das Unternehmen darlegt, wie es in den ersten Monaten des Jahres 2025 zehn böswillige Kampagnen identifiziert und neutralisiert hat, die seine KI-Systeme ausnutzten.

Der Bericht beschreibt, wie staatlich unterstützte Akteure aus sechs Ländern – China, Russland, Nordkorea, Iran, Kambodscha und den Philippinen – ChatGPT und andere KI-Tools für Jobbetrug, Einflussoperationen und Spam-Kampagnen einsetzten. Vier dieser Kampagnen stammten aus China und konzentrierten sich auf Social Engineering, verdeckte Einflussnahme und Cyberbedrohungen.

In einer Kampagne mit dem Namen „Sneer Review“ überschwemmten chinesische Akteure soziale Plattformen mit kritischen Kommentaren zu einem taiwanesischen Brettspiel, das Themen des Widerstands gegen die Kommunistische Partei Chinas aufgriff. Eine weitere Operation, „Helgoland Bite“, umfasste russische Akteure, die deutschsprachige Inhalte generierten, um die USA und die NATO zu kritisieren und gleichzeitig die deutsche Bundestagswahl 2025 zu beeinflussen. Nordkoreanische Akteure wurden dabei beobachtet, wie sie mithilfe von KI massenhaft gefälschte Lebensläufe für Remote-Tech-Jobs erstellten, um so Kontrolle über Firmen-Endgeräte zu erlangen, die beim Onboarding ausgegeben werden.

Die Sicherheitsteams von OpenAI setzten KI als Multiplikator für ihre Ermittlungsarbeit ein, wodurch sie missbräuchliche Aktivitäten wie Social Engineering, Cyber-Spionage und betrügerische Jobangebote erkennen, stören und aufdecken konnten. Die Erkennungssysteme des Unternehmens meldeten in allen Kampagnen verdächtiges Verhalten, was zur Schließung von Konten und zum Austausch von Informationen mit Partnerplattformen führte.

„Wir sind überzeugt, dass Offenheit und Transparenz das Bewusstsein und die Bereitschaft aller Beteiligten stärken und so zu einer besseren kollektiven Verteidigung gegen immer raffiniertere Gegner führen“, heißt es im Bericht von OpenAI. Generative KI habe zwar keine völlig neuen Bedrohungskategorien geschaffen, doch sie senke die technischen Hürden für Angreifer erheblich und steigere die Effizienz koordinierter Attacken.

Sicherheitsexperten betonen, dass Organisationen wachsam bleiben müssen, wie Gegner große Sprachmodelle in ihre Operationen integrieren, und die von Unternehmen wie OpenAI, Google, Meta und Anthropic in Echtzeit geteilten Erkenntnisse nutzen sollten, um gemeinsam stärkere Verteidigungsmechanismen gegen diese sich wandelnden Bedrohungen aufzubauen.

Source: Techrepublic

Latest News