Peneliti keamanan siber telah menemukan varian baru yang mengkhawatirkan dari alat AI berbahaya terkenal, WormGPT, yang kini memanfaatkan model bahasa besar (LLM) komersial dari xAI dan Mistral AI untuk mendukung serangan siber canggih.
Tim intelijen ancaman dari Cato Networks mengidentifikasi dua varian WormGPT yang sebelumnya belum pernah dilaporkan dan dijual di forum bawah tanah seperti BreachForums. Varian-varian ini, yang dikembangkan oleh pengguna dengan nama 'xzin0vich' dan 'keanu', muncul pada Oktober 2024 dan Februari 2025. Berbeda dengan WormGPT asli dari 2023 yang menggunakan model open-source GPT-J, iterasi baru ini menandai perubahan pendekatan yang mendasar.
Alih-alih membangun model AI khusus dari awal, pelaku kejahatan siber menciptakan pembungkus (wrapper) canggih di atas sistem AI komersial yang sudah ada. Melalui teknik jailbreaking dan manipulasi sistem prompt, mereka berhasil melewati pembatasan keamanan pada model Grok milik Elon Musk dan Mixtral dari Mistral, sehingga model tersebut dapat menghasilkan konten berbahaya tanpa batasan etika.
"Iterasi baru WormGPT ini bukanlah model khusus yang dibangun dari nol, melainkan hasil dari aktor ancaman yang dengan cerdik mengadaptasi LLM yang sudah ada," jelas Vitaly Simonovich, peneliti di Cato Networks. Pendekatan ini secara drastis menurunkan hambatan bagi pelaku kejahatan siber, karena mengadaptasi API yang sudah ada jauh lebih mudah daripada melatih LLM berbahaya dari awal.
Kedua varian ini terbukti mampu menghasilkan konten berbahaya saat diminta, termasuk email phishing yang meyakinkan dan skrip PowerShell untuk mencuri kredensial dari sistem Windows 11. Layanan ini tersedia melalui chatbot Telegram dengan sistem langganan, dengan harga mulai dari $8 hingga $100 per bulan.
Evolusi WormGPT menandai tren yang lebih luas dalam kejahatan siber, di mana aktor ancaman semakin memanfaatkan layanan AI legal untuk tujuan jahat melalui rekayasa prompt yang canggih. Para ahli keamanan menyarankan penerapan strategi pertahanan komprehensif, termasuk sistem deteksi ancaman berbasis analitik perilaku, kontrol akses yang lebih ketat, dan pelatihan kesadaran keamanan yang memasukkan simulasi phishing berbasis AI.
Seiring AI menjadi alat serangan sekaligus target, organisasi harus bersiap menghadapi kenyataan baru di mana ancaman AI terbesar justru bisa berasal dari platform-platform paling populer itu sendiri.