menu
close

Киберпрестъпници използват Grok и Mixtral за нови атаки с WormGPT

Изследователи по киберсигурност разкриха нови злонамерени AI варианти, базирани на WormGPT, които експлоатират комерсиални модели като Grok и Mixtral чрез усъвършенствани техники за jailbreaking. Тези инструменти, налични по подземните форуми от началото на 2025 г., позволяват на киберпрестъпниците да генерират убедителни фишинг имейли, зловредни скриптове и автоматизирани кибератаки с невиждана досега прецизност. Откритията показват как злонамерени лица пренасочват легитимни AI системи, вместо да изграждат собствени модели от нулата.
Киберпрестъпници използват Grok и Mixtral за нови атаки с WormGPT

Изследователи по киберсигурност разкриха тревожни нови варианти на печално известния злонамерен AI инструмент WormGPT, които вече използват комерсиални големи езикови модели (LLMs) от xAI и Mistral AI за извършване на сложни кибератаки.

Екипът по разузнаване на заплахи на Cato Networks идентифицира два досега нерегистрирани варианта на WormGPT, които се продават в подземни форуми като BreachForums. Вариантите, разработени от потребители с псевдоними "xzin0vich" и "keanu", се появяват съответно през октомври 2024 г. и февруари 2025 г. За разлика от оригиналния WormGPT от 2023 г., който използваше отворения модел GPT-J, тези нови версии представляват фундаментална промяна в подхода.

Вместо да изграждат собствени AI модели от нулата, киберпрестъпниците са създали сложни обвивки около съществуващи комерсиални AI системи. Чрез техники за jailbreaking и манипулирани системни подсказки те заобикалят защитните механизми в моделите Grok на Илон Мъск и Mixtral на Mistral, принуждавайки ги да генерират злонамерено съдържание без етични ограничения.

"Тези нови версии на WormGPT не са специално създадени модели, а резултат от умелото адаптиране на съществуващи LLM от страна на злонамерени лица," обяснява Виталий Симонович, изследовател в Cato Networks. Този подход значително намалява прага за навлизане на киберпрестъпници, тъй като адаптирането на съществуващ API е много по-лесно от обучението на злонамерен LLM от нулата.

И двата варианта успешно генерират вредно съдържание при поискване, включително убедителни фишинг имейли и PowerShell скриптове, предназначени за кражба на идентификационни данни от системи с Windows 11. Те се предлагат чрез чатботове в Telegram на абонаментен принцип, с цени между 8 и 100 долара на месец.

Еволюцията на WormGPT е част от по-широка тенденция в киберпрестъпността, при която злонамерени лица все по-често използват легитимни AI услуги за престъпни цели чрез усъвършенствано инженерство на подсказки. Експертите по сигурност препоръчват внедряване на цялостни защитни стратегии, включително усъвършенствани системи за откриване на заплахи с поведенческа аналитика, по-строг контрол на достъпа и подобрено обучение за осведоменост по сигурността, което включва симулации на фишинг, генерирани от AI.

Тъй като AI се превръща едновременно в инструмент за атака и в цел, организациите трябва да се подготвят за новата реалност, в която най-големите AI заплахи може да идват именно от най-популярните платформи.

Source:

Latest News