menu
close

OpenAI detectează o creștere a utilizării abuzive a ChatGPT de către grupuri chineze pentru operațiuni sub acoperire

OpenAI a raportat pe 5 iunie 2025 că un număr tot mai mare de grupuri chineze exploatează tehnologia sa AI pentru operațiuni sub acoperire, inclusiv generarea de conținut polarizant pe rețelele sociale și sprijinirea activităților cibernetice. Deși aceste operațiuni au crescut ca amploare și tactici, ele rămân la scară relativ mică, cu o audiență limitată. Constatările subliniază preocupările continue privind potențialul de abuz al AI generative pentru crearea de texte, imagini și audio asemănătoare celor umane în scopuri malițioase.
OpenAI detectează o creștere a utilizării abuzive a ChatGPT de către grupuri chineze pentru operațiuni sub acoperire

OpenAI a identificat o tendință în creștere a grupurilor chineze care utilizează în mod abuziv tehnologia sa de inteligență artificială pentru operațiuni sub acoperire, potrivit unui raport publicat pe 5 iunie. Compania cu sediul în San Francisco, evaluată recent la 300 de miliarde de dolari după o rundă record de finanțare de 40 de miliarde de dolari, a luat măsuri prin blocarea mai multor conturi asociate acestor activități.

Într-un caz notabil, denumit „Sneer Review” de către investigatorii OpenAI, operatorii au generat postări pe rețelele sociale pe subiecte politice sensibile pentru China. Acestea au inclus critici la adresa unui joc video centrat pe Taiwan, acuzații false împotriva unui activist pakistanez și conținut legat de închiderea USAID. Unele postări au criticat și politicile tarifare ale președintelui american Donald Trump. Operațiunea a fost suficient de sofisticată pentru a crea atât postări, cât și comentarii, pentru a simula un angajament organic.

O a doua operațiune a implicat actori amenințători cu legături în China care au folosit ChatGPT pentru a sprijini diverse faze ale operațiunilor lor cibernetice. Acest lucru a inclus cercetare open-source, modificarea de scripturi, depanarea configurațiilor de sistem și dezvoltarea de instrumente pentru forțarea parolelor și automatizarea rețelelor sociale. Deosebit de îngrijorător a fost faptul că acești actori au folosit instrumentele OpenAI pentru a crea documente interne, inclusiv evaluări de performanță care detaliau activitățile lor.

Un al treilea exemplu a scos la iveală o operațiune de influență de origine chineză care genera conținut polarizat pe rețelele sociale, susținând ambele tabere ale unor subiecte divizive din discursul politic american. Această abordare pare concepută pentru a exploata diviziunile politice existente, mai degrabă decât pentru a promova o anumită poziție ideologică. Ben Nimmo, investigator principal în echipa de intelligence a OpenAI, a menționat că, deși aceste operațiuni demonstrează „o gamă tot mai largă de operațiuni sub acoperire folosind o varietate tot mai mare de tactici”, ele au fost în general întrerupte în stadii incipiente, înainte de a ajunge la un public numeros.

Raportul OpenAI a menționat, de asemenea, întreruperea unor operațiuni de influență sub acoperire provenite din alte țări, inclusiv Rusia și Iran, precum și diverse escrocherii legate de Cambodgia și Coreea de Nord. Compania monitorizează și raportează în mod regulat activitatea malițioasă de pe platforma sa, ca parte a angajamentului său pentru dezvoltarea responsabilă a AI.

Ministerul de externe al Chinei nu a răspuns solicitărilor de comentarii privind constatările OpenAI.

Source:

Latest News