Penyelidik keselamatan siber telah mendedahkan varian baharu yang membimbangkan daripada alat AI berbahaya terkenal, WormGPT, yang kini menggunakan model bahasa besar (LLM) komersial daripada xAI dan Mistral AI untuk melancarkan serangan siber yang lebih canggih.
Pasukan risikan ancaman Cato Networks telah mengenal pasti dua varian WormGPT yang belum pernah dilaporkan sebelum ini, yang dijual di forum bawah tanah seperti BreachForums. Varian tersebut, yang dibangunkan oleh pengguna bernama "xzin0vich" dan "keanu", muncul pada Oktober 2024 dan Februari 2025. Tidak seperti WormGPT asal dari 2023 yang menggunakan model sumber terbuka GPT-J, iterasi baharu ini menunjukkan perubahan pendekatan yang ketara.
Daripada membina model AI khusus dari awal, penjenayah siber telah mencipta pembalut (wrapper) canggih di sekeliling sistem AI komersial sedia ada. Melalui teknik jailbreaking dan manipulasi arahan sistem, mereka berjaya memintas kawalan keselamatan dalam model Grok milik Elon Musk dan Mixtral dari Mistral, memaksa model-model ini menghasilkan kandungan berbahaya tanpa batasan etika.
"Iterasi baharu WormGPT ini bukanlah model tersuai yang dibina dari bawah, sebaliknya hasil pelaku ancaman yang bijak menyesuaikan LLM sedia ada," jelas Vitaly Simonovich, penyelidik dari Cato Networks. Pendekatan ini secara drastik menurunkan halangan untuk penjenayah siber, kerana menyesuaikan API sedia ada jauh lebih mudah berbanding melatih LLM berbahaya dari awal.
Kedua-dua varian ini berjaya menghasilkan kandungan berbahaya apabila diarahkan, termasuk e-mel phishing yang meyakinkan dan skrip PowerShell yang direka untuk mencuri kelayakan daripada sistem Windows 11. Ia ditawarkan melalui chatbot Telegram secara langganan, dengan harga antara $8 hingga $100 sebulan.
Evolusi WormGPT menandakan trend lebih meluas dalam jenayah siber, di mana pelaku ancaman semakin memanfaatkan perkhidmatan AI sah untuk tujuan jahat melalui kejuruteraan prompt yang canggih. Pakar keselamatan mengesyorkan pelaksanaan strategi pertahanan menyeluruh, termasuk sistem pengesanan ancaman dengan analitik tingkah laku, kawalan akses yang lebih ketat, serta latihan kesedaran keselamatan yang memasukkan simulasi phishing berasaskan AI.
Apabila AI menjadi alat serangan dan juga sasaran, organisasi perlu bersedia menghadapi realiti baharu di mana ancaman AI terbesar mungkin datang dari dalam platform paling popular itu sendiri.