OpenAI опублікувала докладний звіт під назвою «Протидія зловмисному використанню ШІ: червень 2025», у якому розповідає, як компанія виявила та нейтралізувала 10 зловмисних кампаній, що експлуатували її системи штучного інтелекту в перші місяці 2025 року.
У звіті йдеться про те, як державні актори з шести країн — Китаю, Росії, Північної Кореї, Ірану, Камбоджі та Філіппін — використовували ChatGPT та інші інструменти ШІ для проведення шахрайств із працевлаштуванням, операцій впливу та спам-кампаній. Чотири з цих кампаній походили з Китаю й були зосереджені на соціальній інженерії, прихованих операціях впливу та кіберзагрозах.
В одній із кампаній під назвою «Sneer Review» китайські актори заполонили соціальні платформи критичними коментарями, спрямованими проти тайванської настільної гри, яка містила теми опору Комуністичній партії Китаю. Інша операція, «Helgoland Bite», передбачала створення російськими акторами німецькомовного контенту з критикою США та НАТО з метою вплинути на вибори в Німеччині 2025 року. Північнокорейські актори використовували ШІ для масового створення фальшивих резюме на віддалені технічні посади, прагнучи отримати контроль над корпоративними пристроями, які видаються під час працевлаштування.
Команди безпеки OpenAI застосовували ШІ як мультиплікатор зусиль у розслідуваннях, що дозволило їм виявляти, зупиняти та викривати зловмисну діяльність, зокрема соціальну інженерію, кібер-шпигунство та шахрайські схеми працевлаштування. Системи виявлення компанії фіксували підозрілу поведінку в усіх кампаніях, що призвело до блокування облікових записів і обміну розвідданими з партнерськими платформами.
«Ми вважаємо, що відкритість і прозорість сприяють підвищенню обізнаності та готовності всіх учасників, що веде до зміцнення колективного захисту від постійно еволюціонуючих загроз», — йдеться у звіті OpenAI. Хоча генеративний ШІ не створив зовсім нових категорій загроз, він суттєво знизив технічні бар’єри для зловмисників і підвищив ефективність скоординованих атак.
Експерти з безпеки наголошують, що організації мають уважно стежити за тим, як противники впроваджують великі мовні моделі у свої операції, та використовувати розвіддані в реальному часі, якими діляться такі компанії, як OpenAI, Google, Meta та Anthropic, щоб посилити колективний захист від цих нових загроз.