Дослідники з кібербезпеки виявили тривожні нові варіанти сумнозвісного шкідливого інструменту WormGPT, які тепер використовують комерційні великі мовні моделі (LLM) від xAI та Mistral AI для проведення складних кібератак.
Аналітики з команди з розвідки загроз Cato Networks ідентифікували два раніше невідомі варіанти WormGPT, які продаються на підпільних форумах, таких як BreachForums. Ці варіанти, розроблені користувачами під ніками "xzin0vich" і "keanu", з’явилися відповідно в жовтні 2024 року та лютому 2025 року. На відміну від оригінального WormGPT 2023 року, що використовував відкриту модель GPT-J, нові ітерації демонструють принципово інший підхід.
Замість створення власних AI-моделей з нуля, кіберзлочинці розробили складні обгортки навколо існуючих комерційних AI-систем. Завдяки технікам джейлбрейку та маніпуляціям із системними підказками їм вдалося обійти захисні механізми у моделях Grok від Ілона Маска та Mixtral від Mistral, змушуючи їх генерувати шкідливий контент без етичних обмежень.
"Ці нові ітерації WormGPT — це не унікальні моделі, створені з нуля, а результат вмілого пристосування існуючих LLM зловмисниками", — пояснює Віталій Симонович, дослідник Cato Networks. Такий підхід суттєво знижує поріг входу для кіберзлочинців, адже адаптація існуючого API набагато простіша, ніж навчання власної шкідливої LLM.
Обидва варіанти успішно генерують шкідливий контент на запит, зокрема переконливі фішингові листи та PowerShell-скрипти для викрадення облікових даних із систем Windows 11. Вони доступні через чат-боти в Telegram за підпискою, вартість якої коливається від $8 до $100 на місяць.
Еволюція WormGPT свідчить про ширшу тенденцію у світі кіберзлочинності, коли зловмисники дедалі частіше використовують легальні AI-сервіси для шкідливих цілей за допомогою складної інженерії підказок. Експерти з безпеки радять впроваджувати комплексні захисні стратегії, включно з удосконаленими системами виявлення загроз на основі поведінкового аналізу, посиленим контролем доступу та покращеним навчанням співробітників з кібербезпеки із залученням симуляцій фішингу на базі AI.
Оскільки AI стає як інструментом атаки, так і ціллю, організаціям слід готуватися до нової реальності, де найбільші загрози від штучного інтелекту можуть походити з найпопулярніших платформ.