menu
close

OpenAI осуети 10 държавно подкрепяни кампании за злоупотреба с изкуствен интелект

Докладът на OpenAI от юни 2025 г. разкрива как компанията е осуетила 10 злонамерени кампании, използващи ChatGPT за измами с работни места, операции за влияние и спам дейности в началото на 2025 г. Държавно подкрепяни актьори от Китай, Русия и Иран стоят зад много от тези операции, използвайки AI инструменти за усъвършенстване на измами, кибер прониквания и глобални кампании за влияние. Макар генеративният AI да не е създал нови категории заплахи, той значително е намалил техническите бариери за злонамерените актьори и е увеличил ефективността на координираните атаки.
OpenAI осуети 10 държавно подкрепяни кампании за злоупотреба с изкуствен интелект

OpenAI публикува подробен доклад, озаглавен „Прекъсване на злонамерени употреби на AI: юни 2025“, в който разкрива как компанията е идентифицирала и неутрализирала 10 злонамерени кампании, експлоатиращи нейните AI системи през първите месеци на 2025 г.

Докладът описва как държавно подкрепяни актьори от шест държави — Китай, Русия, Северна Корея, Иран, Камбоджа и Филипините — са използвали ChatGPT и други AI инструменти за провеждане на измами с работни места, операции за влияние и спам кампании. Четири от тези кампании произхождат от Китай и са фокусирани върху социално инженерство, прикрити операции за влияние и киберзаплахи.

В една от кампаниите, наречена „Sneer Review“, китайски актьори заляха социалните платформи с критични коментари, насочени към тайванска настолна игра, включваща теми за съпротива срещу Китайската комунистическа партия. Друга операция, „Helgoland Bite“, включва руски актьори, генериращи съдържание на немски език, критикуващо САЩ и НАТО, с опит да повлияят на изборите в Германия през 2025 г. Севернокорейски актьори са били наблюдавани да използват AI за масово създаване на фалшиви автобиографии за дистанционни технологични позиции, с цел да получат контрол над корпоративни устройства, издавани при назначаване.

Екипите по сигурността на OpenAI използват AI като усилвател на разследващите си усилия, което им позволява да откриват, прекъсват и разкриват злоупотреби, включително социално инженерство, кибершпионаж и измамни схеми за наемане на работа. Системите за откриване на компанията са сигнализирали за необичайно поведение във всички кампании, което е довело до прекратяване на акаунти и споделяне на информация с партньорски платформи.

„Вярваме, че споделянето и прозрачността насърчават по-голяма осведоменост и готовност сред всички заинтересовани страни, водейки до по-силна колективна защита срещу постоянно развиващите се противници“, заявяват от OpenAI в доклада си. Макар генеративният AI да не е създал изцяло нови категории заплахи, той значително е намалил техническите бариери за злонамерените актьори и е увеличил ефективността на координираните атаки.

Експертите по сигурност подчертават, че организациите трябва да останат бдителни относно начина, по който противниците използват големи езикови модели в своите операции, и да се възползват от споделената в реално време информация от компании като OpenAI, Google, Meta и Anthropic, за да изградят по-силна колективна защита срещу тези развиващи се заплахи.

Source: Techrepublic

Latest News