OpenAI telah merilis laporan komprehensif berjudul "Menggagalkan Penyalahgunaan AI: Juni 2025," yang mengungkap bagaimana perusahaan mengidentifikasi dan menetralkan 10 kampanye jahat yang mengeksploitasi sistem AI mereka selama bulan-bulan pertama tahun 2025.
Laporan tersebut merinci bagaimana aktor yang didukung negara dari enam negara—Tiongkok, Rusia, Korea Utara, Iran, Kamboja, dan Filipina—memanfaatkan ChatGPT dan alat AI lainnya untuk melakukan penipuan pekerjaan, operasi pengaruh, dan kampanye spam. Empat dari kampanye tersebut berasal dari Tiongkok, dengan fokus pada rekayasa sosial, operasi pengaruh tersembunyi, dan ancaman siber.
Dalam salah satu kampanye yang dijuluki "Sneer Review," aktor Tiongkok membanjiri platform media sosial dengan komentar kritis yang menargetkan sebuah permainan papan Taiwan yang mengangkat tema perlawanan terhadap Partai Komunis Tiongkok. Operasi lain, "Helgoland Bite," melibatkan aktor Rusia yang menghasilkan konten berbahasa Jerman yang mengkritik AS dan NATO, serta berupaya memengaruhi pemilu Jerman 2025. Aktor Korea Utara terpantau menggunakan AI untuk memproduksi massal resume palsu guna melamar pekerjaan teknologi jarak jauh, dengan tujuan memperoleh kendali atas perangkat perusahaan yang diberikan saat proses orientasi.
Tim keamanan OpenAI memanfaatkan AI sebagai pengganda kekuatan dalam upaya investigasi mereka, memungkinkan deteksi, penggagalan, dan pengungkapan aktivitas penyalahgunaan termasuk rekayasa sosial, spionase siber, dan skema penipuan pekerjaan. Sistem deteksi perusahaan menandai perilaku tidak biasa di semua kampanye, yang berujung pada penutupan akun dan berbagi intelijen dengan platform mitra.
"Kami percaya bahwa keterbukaan dan transparansi mendorong kesadaran dan kesiapsiagaan yang lebih besar di antara seluruh pemangku kepentingan, sehingga memperkuat pertahanan kolektif terhadap ancaman yang terus berkembang," tulis OpenAI dalam laporannya. Meskipun AI generatif belum sepenuhnya menciptakan kategori ancaman baru, teknologi ini secara signifikan menurunkan hambatan teknis bagi pelaku jahat dan meningkatkan efisiensi serangan terkoordinasi.
Para pakar keamanan menekankan bahwa organisasi harus tetap waspada terhadap bagaimana lawan memanfaatkan model bahasa besar dalam operasi mereka, serta aktif memanfaatkan intelijen waktu nyata yang dibagikan oleh perusahaan seperti OpenAI, Google, Meta, dan Anthropic untuk membangun pertahanan kolektif yang lebih kuat terhadap ancaman yang terus berkembang ini.