menu
close

OpenAI пресекла 10 кампаний по злоупотреблению ИИ, поддерживаемых государствами

В июньском отчёте 2025 года OpenAI подробно рассказала о том, как компания пресекла 10 вредоносных кампаний, в которых ChatGPT использовался для трудовых мошенничеств, операций по влиянию и рассылки спама в начале 2025 года. За многими из этих операций стояли государственные структуры из Китая, России и Ирана, которые применяли ИИ-инструменты для совершенствования мошенничеств, кибервторжений и глобальных кампаний по влиянию. Хотя генеративный ИИ не создал новых категорий угроз, он значительно снизил технические барьеры для злоумышленников и повысил эффективность скоординированных атак.
OpenAI пресекла 10 кампаний по злоупотреблению ИИ, поддерживаемых государствами

OpenAI опубликовала подробный отчёт под названием «Пресечение вредоносного использования ИИ: июнь 2025», в котором раскрывается, как компания выявила и нейтрализовала 10 вредоносных кампаний, использовавших её ИИ-системы в первые месяцы 2025 года.

В отчёте говорится, что государственные акторы из шести стран — Китая, России, Северной Кореи, Ирана, Камбоджи и Филиппин — использовали ChatGPT и другие ИИ-инструменты для проведения трудовых мошенничеств, операций по влиянию и спам-кампаний. Четыре из этих кампаний исходили из Китая и были нацелены на социальную инженерию, скрытые операции по влиянию и киберугрозы.

В одной из кампаний под названием «Sneer Review» китайские акторы заполонили социальные платформы критическими комментариями в адрес тайваньской настольной игры, в которой затрагивалась тема сопротивления Коммунистической партии Китая. В другой операции, «Helgoland Bite», российские акторы генерировали контент на немецком языке с критикой США и НАТО, пытаясь повлиять на выборы в Германии в 2025 году. Было также зафиксировано, что северокорейские акторы использовали ИИ для массового создания поддельных резюме для удалённых вакансий в сфере технологий, чтобы получить контроль над корпоративными устройствами, выдаваемыми при приёме на работу.

Команды по безопасности OpenAI применяли ИИ как инструмент, многократно усиливающий их возможности расследования, что позволило выявлять, пресекать и раскрывать злоупотребления, включая социальную инженерию, кибершпионаж и мошеннические схемы трудоустройства. Системы обнаружения компании зафиксировали аномальную активность во всех кампаниях, что привело к блокировке аккаунтов и обмену информацией с партнёрскими платформами.

«Мы считаем, что открытость и прозрачность способствуют повышению осведомлённости и готовности всех участников, что ведёт к более сильной коллективной защите от постоянно эволюционирующих противников», — говорится в отчёте OpenAI. Хотя генеративный ИИ не создал совершенно новых категорий угроз, он значительно снизил технические барьеры для злоумышленников и повысил эффективность скоординированных атак.

Эксперты по безопасности подчёркивают, что организациям необходимо сохранять бдительность в отношении того, как противники используют крупные языковые модели в своей деятельности, а также взаимодействовать с оперативной разведкой, предоставляемой такими компаниями, как OpenAI, Google, Meta и Anthropic, чтобы выстраивать более надёжную коллективную защиту от этих новых угроз.

Source: Techrepublic

Latest News