Изследователи по киберсигурност разкриха тревожни нови варианти на печално известния злонамерен AI инструмент WormGPT, които вече използват комерсиални големи езикови модели (LLMs) от xAI и Mistral AI за извършване на сложни кибератаки.
Екипът по разузнаване на заплахи на Cato Networks идентифицира два досега нерегистрирани варианта на WormGPT, които се продават в подземни форуми като BreachForums. Вариантите, разработени от потребители с псевдоними "xzin0vich" и "keanu", се появяват съответно през октомври 2024 г. и февруари 2025 г. За разлика от оригиналния WormGPT от 2023 г., който използваше отворения модел GPT-J, тези нови версии представляват фундаментална промяна в подхода.
Вместо да изграждат собствени AI модели от нулата, киберпрестъпниците са създали сложни обвивки около съществуващи комерсиални AI системи. Чрез техники за jailbreaking и манипулирани системни подсказки те заобикалят защитните механизми в моделите Grok на Илон Мъск и Mixtral на Mistral, принуждавайки ги да генерират злонамерено съдържание без етични ограничения.
"Тези нови версии на WormGPT не са специално създадени модели, а резултат от умелото адаптиране на съществуващи LLM от страна на злонамерени лица," обяснява Виталий Симонович, изследовател в Cato Networks. Този подход значително намалява прага за навлизане на киберпрестъпници, тъй като адаптирането на съществуващ API е много по-лесно от обучението на злонамерен LLM от нулата.
И двата варианта успешно генерират вредно съдържание при поискване, включително убедителни фишинг имейли и PowerShell скриптове, предназначени за кражба на идентификационни данни от системи с Windows 11. Те се предлагат чрез чатботове в Telegram на абонаментен принцип, с цени между 8 и 100 долара на месец.
Еволюцията на WormGPT е част от по-широка тенденция в киберпрестъпността, при която злонамерени лица все по-често използват легитимни AI услуги за престъпни цели чрез усъвършенствано инженерство на подсказки. Експертите по сигурност препоръчват внедряване на цялостни защитни стратегии, включително усъвършенствани системи за откриване на заплахи с поведенческа аналитика, по-строг контрол на достъпа и подобрено обучение за осведоменост по сигурността, което включва симулации на фишинг, генерирани от AI.
Тъй като AI се превръща едновременно в инструмент за атака и в цел, организациите трябва да се подготвят за новата реалност, в която най-големите AI заплахи може да идват именно от най-популярните платформи.