OpenAI публикува подробен доклад, озаглавен „Прекъсване на злонамерени употреби на AI: юни 2025“, в който разкрива как компанията е идентифицирала и неутрализирала 10 злонамерени кампании, експлоатиращи нейните AI системи през първите месеци на 2025 г.
Докладът описва как държавно подкрепяни актьори от шест държави — Китай, Русия, Северна Корея, Иран, Камбоджа и Филипините — са използвали ChatGPT и други AI инструменти за провеждане на измами с работни места, операции за влияние и спам кампании. Четири от тези кампании произхождат от Китай и са фокусирани върху социално инженерство, прикрити операции за влияние и киберзаплахи.
В една от кампаниите, наречена „Sneer Review“, китайски актьори заляха социалните платформи с критични коментари, насочени към тайванска настолна игра, включваща теми за съпротива срещу Китайската комунистическа партия. Друга операция, „Helgoland Bite“, включва руски актьори, генериращи съдържание на немски език, критикуващо САЩ и НАТО, с опит да повлияят на изборите в Германия през 2025 г. Севернокорейски актьори са били наблюдавани да използват AI за масово създаване на фалшиви автобиографии за дистанционни технологични позиции, с цел да получат контрол над корпоративни устройства, издавани при назначаване.
Екипите по сигурността на OpenAI използват AI като усилвател на разследващите си усилия, което им позволява да откриват, прекъсват и разкриват злоупотреби, включително социално инженерство, кибершпионаж и измамни схеми за наемане на работа. Системите за откриване на компанията са сигнализирали за необичайно поведение във всички кампании, което е довело до прекратяване на акаунти и споделяне на информация с партньорски платформи.
„Вярваме, че споделянето и прозрачността насърчават по-голяма осведоменост и готовност сред всички заинтересовани страни, водейки до по-силна колективна защита срещу постоянно развиващите се противници“, заявяват от OpenAI в доклада си. Макар генеративният AI да не е създал изцяло нови категории заплахи, той значително е намалил техническите бариери за злонамерените актьори и е увеличил ефективността на координираните атаки.
Експертите по сигурност подчертават, че организациите трябва да останат бдителни относно начина, по който противниците използват големи езикови модели в своите операции, и да се възползват от споделената в реално време информация от компании като OpenAI, Google, Meta и Anthropic, за да изградят по-силна колективна защита срещу тези развиващи се заплахи.