OpenAI a publicat un raport cuprinzător intitulat „Dezorganizarea utilizărilor malițioase ale AI: iunie 2025”, care dezvăluie modul în care compania a identificat și neutralizat 10 campanii malițioase ce au exploatat sistemele sale de inteligență artificială în primele luni ale anului 2025.
Raportul detaliază cum actori susținuți de state din șase țări—China, Rusia, Coreea de Nord, Iran, Cambodgia și Filipine—au folosit ChatGPT și alte instrumente AI pentru a desfășura escrocherii de angajare, operațiuni de influență și campanii de tip spam. Patru dintre aceste campanii au provenit din China, concentrându-se pe inginerie socială, operațiuni de influență sub acoperire și amenințări cibernetice.
Într-o campanie denumită „Sneer Review”, actori chinezi au inundat platformele sociale cu comentarii critice la adresa unui joc de societate taiwanez ce aborda teme de rezistență împotriva Partidului Comunist Chinez. O altă operațiune, „Helgoland Bite”, a implicat actori ruși care generau conținut în limba germană criticând SUA și NATO, încercând totodată să influențeze alegerile din Germania din 2025. Actori nord-coreeni au fost observați folosind AI pentru a produce în masă CV-uri false pentru posturi tehnice la distanță, urmărind să obțină control asupra dispozitivelor corporative emise la angajare.
Echipele de securitate ale OpenAI au folosit AI ca multiplicator de forță pentru eforturile lor investigative, ceea ce le-a permis să detecteze, să perturbe și să expună activități abuzive precum ingineria socială, spionajul cibernetic și schemele de angajare înșelătoare. Sistemele de detecție ale companiei au semnalat comportamente neobișnuite în toate campaniile, ceea ce a dus la suspendarea conturilor și la partajarea de informații cu platformele partenere.
„Credem că transparența și împărtășirea informațiilor favorizează o conștientizare și o pregătire mai mare în rândul tuturor părților interesate, conducând la o apărare colectivă mai puternică împotriva adversarilor în continuă evoluție”, a declarat OpenAI în raportul său. Deși AI generativă nu a creat categorii complet noi de amenințări, a redus semnificativ barierele tehnice pentru actorii rău intenționați și a crescut eficiența atacurilor coordonate.
Experții în securitate subliniază că organizațiile trebuie să rămână vigilente cu privire la modul în care adversarii adoptă modele lingvistice de mari dimensiuni în operațiunile lor și să se implice în schimbul de informații în timp real oferit de companii precum OpenAI, Google, Meta și Anthropic, pentru a construi o apărare colectivă mai solidă împotriva acestor amenințări în evoluție.