OpenAI опубликовала подробный отчёт под названием «Пресечение вредоносного использования ИИ: июнь 2025», в котором раскрывается, как компания выявила и нейтрализовала 10 вредоносных кампаний, использовавших её ИИ-системы в первые месяцы 2025 года.
В отчёте говорится, что государственные акторы из шести стран — Китая, России, Северной Кореи, Ирана, Камбоджи и Филиппин — использовали ChatGPT и другие ИИ-инструменты для проведения трудовых мошенничеств, операций по влиянию и спам-кампаний. Четыре из этих кампаний исходили из Китая и были нацелены на социальную инженерию, скрытые операции по влиянию и киберугрозы.
В одной из кампаний под названием «Sneer Review» китайские акторы заполонили социальные платформы критическими комментариями в адрес тайваньской настольной игры, в которой затрагивалась тема сопротивления Коммунистической партии Китая. В другой операции, «Helgoland Bite», российские акторы генерировали контент на немецком языке с критикой США и НАТО, пытаясь повлиять на выборы в Германии в 2025 году. Было также зафиксировано, что северокорейские акторы использовали ИИ для массового создания поддельных резюме для удалённых вакансий в сфере технологий, чтобы получить контроль над корпоративными устройствами, выдаваемыми при приёме на работу.
Команды по безопасности OpenAI применяли ИИ как инструмент, многократно усиливающий их возможности расследования, что позволило выявлять, пресекать и раскрывать злоупотребления, включая социальную инженерию, кибершпионаж и мошеннические схемы трудоустройства. Системы обнаружения компании зафиксировали аномальную активность во всех кампаниях, что привело к блокировке аккаунтов и обмену информацией с партнёрскими платформами.
«Мы считаем, что открытость и прозрачность способствуют повышению осведомлённости и готовности всех участников, что ведёт к более сильной коллективной защите от постоянно эволюционирующих противников», — говорится в отчёте OpenAI. Хотя генеративный ИИ не создал совершенно новых категорий угроз, он значительно снизил технические барьеры для злоумышленников и повысил эффективность скоординированных атак.
Эксперты по безопасности подчёркивают, что организациям необходимо сохранять бдительность в отношении того, как противники используют крупные языковые модели в своей деятельности, а также взаимодействовать с оперативной разведкой, предоставляемой такими компаниями, как OpenAI, Google, Meta и Anthropic, чтобы выстраивать более надёжную коллективную защиту от этих новых угроз.