menu
close

OpenAI Napigilan ang 10 Kampanya ng Pag-abuso sa AI na Pinondohan ng Estado

Ibinunyag ng ulat ng OpenAI noong Hunyo 2025 kung paano nila napigilan ang 10 mapanlinlang na kampanya na gumamit ng ChatGPT para sa mga scam sa trabaho, operasyon ng impluwensya, at spam noong unang bahagi ng 2025. Ang mga aktor na suportado ng estado mula sa Tsina, Rusya, at Iran ang nasa likod ng karamihan sa mga operasyong ito, gamit ang mga AI tool upang palakasin ang mga scam, cyber intrusion, at pandaigdigang kampanya ng impluwensya. Bagaman hindi nagdulot ng ganap na bagong uri ng banta ang generative AI, malaki ang ibinaba ng teknikal na hadlang para sa masasamang aktor at tumaas ang bisa ng mga koordinadong pag-atake.
OpenAI Napigilan ang 10 Kampanya ng Pag-abuso sa AI na Pinondohan ng Estado

Naglabas ang OpenAI ng masusing ulat na pinamagatang "Disrupting malicious uses of AI: June 2025," na naglalantad kung paano nila natukoy at napigilan ang 10 mapanlinlang na kampanya na sumamantala sa kanilang mga AI system sa unang mga buwan ng 2025.

Detalyado sa ulat kung paano ginagamit ng mga aktor na suportado ng estado mula sa anim na bansa—Tsina, Rusya, Hilagang Korea, Iran, Cambodia, at Pilipinas—ang ChatGPT at iba pang AI tool para magsagawa ng mga scam sa trabaho, operasyon ng impluwensya, at spam campaigns. Apat sa mga kampanyang ito ay nagmula sa Tsina, na nakatuon sa social engineering, lihim na operasyon ng impluwensya, at mga cyber threat.

Sa isang kampanyang tinawag na "Sneer Review," binaha ng mga aktor mula sa Tsina ang mga social platform ng mapanirang komento laban sa isang Taiwanese na board game na may temang paglaban sa Chinese Communist Party. Sa isa pang operasyon na tinawag na "Helgoland Bite," gumawa ang mga aktor mula sa Rusya ng mga nilalamang Aleman na pumupuna sa US at NATO habang sinusubukang impluwensyahan ang halalan sa Alemanya ngayong 2025. Napansin din ang mga aktor mula sa Hilagang Korea na gumagamit ng AI upang mass-produce ng mga pekeng resume para sa mga remote na tech na trabaho, na layuning makuha ang kontrol sa mga corporate device na ibinibigay sa onboarding.

Gumamit ang mga security team ng OpenAI ng AI bilang multiplier ng kanilang kakayahan sa imbestigasyon, na nagbigay-daan upang matukoy, mapigilan, at mailantad ang mga mapanlinlang na aktibidad kabilang ang social engineering, cyber espionage, at mapanlinlang na employment schemes. Na-flag ng detection systems ng kumpanya ang kakaibang kilos sa lahat ng kampanya, na nagresulta sa pag-terminate ng mga account at pagbabahagi ng impormasyon sa mga katuwang na platform.

"Naniniwala kami na ang pagbabahagi at pagiging bukas ay nagpapalago ng kamalayan at kahandaan ng lahat ng stakeholder, na nagreresulta sa mas matibay na kolektibong depensa laban sa patuloy na umuunlad na mga kalaban," ayon sa ulat ng OpenAI. Bagaman hindi nagdulot ng ganap na bagong kategorya ng banta ang generative AI, malaki ang ibinaba ng teknikal na hadlang para sa masasamang aktor at tumaas ang bisa ng mga koordinadong pag-atake.

Binigyang-diin ng mga eksperto sa seguridad na dapat manatiling mapagmatyag ang mga organisasyon sa paggamit ng mga kalaban ng malalaking language model sa kanilang mga operasyon at aktibong makilahok sa real-time na intelligence na ibinabahagi ng mga kumpanyang tulad ng OpenAI, Google, Meta, at Anthropic upang makabuo ng mas matibay na kolektibong depensa laban sa mga nagbabagong banta.

Source: Techrepublic

Latest News