Siber güvenlik araştırmacıları, kötü şöhretli WormGPT'nin yeni ve endişe verici varyantlarını ortaya çıkardı. Bu varyantlar, artık xAI ve Mistral AI tarafından geliştirilen ticari büyük dil modellerini (LLM) kullanarak sofistike siber saldırılar gerçekleştiriyor.
Cato Networks'ün tehdit istihbarat ekibi, BreachForums gibi yeraltı forumlarında satılan ve daha önce rapor edilmemiş iki WormGPT varyantını tespit etti. "xzin0vich" ve "keanu" takma adlarını kullanan kişiler tarafından geliştirilen bu varyantlar sırasıyla Ekim 2024 ve Şubat 2025'te ortaya çıktı. 2023'teki orijinal WormGPT, açık kaynaklı GPT-J modelini kullanırken, yeni sürümler yaklaşımda köklü bir değişimi temsil ediyor.
Sıfırdan özel yapay zeka modelleri inşa etmek yerine, siber suçlular mevcut ticari yapay zeka sistemlerinin etrafına gelişmiş "wrapper" katmanları oluşturdu. Jailbreak teknikleri ve manipüle edilmiş sistem istemleri aracılığıyla, Elon Musk'ın Grok'u ve Mistral'ın Mixtral modellerindeki güvenlik önlemlerini aşarak, bu sistemlerin etik kısıtlamalar olmadan zararlı içerik üretmesini sağladılar.
"Bu yeni WormGPT sürümleri, sıfırdan inşa edilmiş özel modeller değil; tehdit aktörlerinin mevcut büyük dil modellerini ustalıkla uyarlamasının bir sonucu," diyor Cato Networks araştırmacısı Vitaly Simonovich. Bu yaklaşım, siber suçlular için giriş engelini önemli ölçüde düşürüyor; çünkü mevcut bir API'yi uyarlamak, sıfırdan kötü amaçlı bir LLM eğitmekten çok daha az karmaşık.
Her iki varyant da, istendiğinde zararlı içerik üretebiliyor; buna ikna edici oltalama e-postaları ve Windows 11 sistemlerinden kimlik bilgisi çalmak için tasarlanmış PowerShell komut dosyaları da dahil. Bu araçlar, Telegram sohbet botları üzerinden abonelik modeliyle sunuluyor ve aylık fiyatları 8 ila 100 dolar arasında değişiyor.
WormGPT'nin evrimi, siber suçta daha geniş bir eğilime işaret ediyor: Tehdit aktörleri, gelişmiş istem mühendisliğiyle meşru yapay zeka hizmetlerini kötü amaçlarla kullanıyor. Güvenlik uzmanları, davranışsal analiz içeren gelişmiş tehdit tespit sistemleri, daha güçlü erişim kontrolleri ve yapay zeka tarafından üretilen oltalama simülasyonlarını da kapsayan güvenlik farkındalığı eğitimleriyle kapsamlı savunma stratejileri uygulanmasını öneriyor.
Yapay zekâ hem saldırı aracı hem de hedef haline gelirken, kurumların en büyük yapay zeka tehditlerinin bizzat en popüler platformlardan gelebileceği yeni bir gerçekliğe hazırlıklı olması gerekiyor.