menu
close

Lumalala ang mga Puang sa Seguridad ng AI Habang Umiigting ang mga Atake sa 2025

Ipinapakita ng mga bagong natuklasan na ang mga kritikal na kahinaan sa seguridad ng AI ay mas mabilis at mas madalas na inaabuso, habang nahihirapan ang mga organisasyon na magpatupad ng sapat na mga pananggalang. Nagbabala ang National Cyber Security Centre ng UK na pagsapit ng 2027, mas paiikliin pa ng mga umaatakeng gumagamit ng AI ang panahon mula pagtuklas hanggang pagsasamantala ng mga kahinaan, samantalang 37% lamang ng mga organisasyon ang may wastong mga protocol sa pagsusuri ng seguridad ng AI. Patuloy na pangunahing alalahanin ang mga kahinaan sa supply chain at mga prompt injection attack habang bumibilis ang paggamit ng AI sa iba't ibang industriya.
Lumalala ang mga Puang sa Seguridad ng AI Habang Umiigting ang mga Atake sa 2025

Ang mabilis na integrasyon ng artificial intelligence sa mga kritikal na imprastraktura ay nagdulot ng nakakabahalang kalagayan sa seguridad, ayon sa mga eksperto sa cybersecurity na tampok sa pinakahuling RISKS Forum Digest na inilathala noong Mayo 17, 2025.

Ibinunyag ng Global Cybersecurity Outlook 2025 ng World Economic Forum na habang 66% ng mga organisasyon ay itinuturing ang AI bilang pinakamalaking pagbabago sa cybersecurity ngayong taon, 37% lamang ang may mga pananggalang para masuri ang mga AI tool bago ito gamitin. Ang agwat na ito sa pagitan ng kaalaman at aksyon ay nagdulot ng malalaking kahinaan sa iba't ibang industriya.

"Ang mga organisasyon at sistemang hindi sumasabay sa mga banta na pinapagana ng AI ay nanganganib na maging mas mahina sa loob ng supply chain, dahil sa mas mataas na posibilidad na malantad at mapagsamantalahan," babala ng tagapagsalita ng National Cyber Security Centre (NCSC) ng UK sa kanilang pinakabagong ulat. Inaasahan ng NCSC na pagsapit ng 2027, mas paiikliin pa ng mga umaatakeng gumagamit ng AI ang panahon mula pagtuklas hanggang pagsasamantala ng mga kahinaan—na sa ngayon ay umaabot na lamang ng ilang araw.

Lalo namang nababahala ang mga propesyonal sa cybersecurity sa mga prompt injection attack laban sa malalaking language model (LLM). Sa isang kamakailang penetration test na binanggit ng mga mananaliksik sa seguridad, na-kompromiso ang AI chatbot ng isang tindahan ng kandila sa pamamagitan ng prompt engineering, na nagdulot ng mga panganib sa seguridad, kaligtasan, at negosyo. Pinayagan ng atake ang pagkuha ng data ng sistema at manipulasyon ng mga tugon ng chatbot, na nagpapakita kung paano ang tila simpleng implementasyon ng AI ay maaaring maging seryosong banta sa seguridad.

Isa pang pangunahing alalahanin ang mga kahinaan sa supply chain, kung saan 54% ng malalaking organisasyon ang nagtuturing dito bilang pinakamalaking hadlang sa pagkamit ng cyber resilience. Ang lumalaking komplikasyon ng supply chain, kasabay ng limitadong kaalaman sa mga gawi ng seguridad ng mga supplier, ay lumikha ng sitwasyon kung saan maaaring mapasok ang mga AI system sa pamamagitan ng mga third-party na bahagi.

Ang pag-usbong ng agentic AI—mga sistemang kayang magdesisyon at magsagawa ng komplikadong gawain nang mag-isa—ay inaasahang magbabago sa kalakaran ng mga banta sa 2025. "Dati, nakatuon tayo sa mga AI assistant na tumutugon lang sa mga prompt ng user. Ngayon, tinitingnan na natin ang agentic AI tools na kayang magdesisyon at magsagawa ng komplikadong gawain nang walang gabay," paliwanag ni Hao Yang, VP ng artificial intelligence sa Splunk na pagmamay-ari ng Cisco.

Iminumungkahi ng mga eksperto na magpatupad ang mga organisasyon ng pormal na mga polisiya sa seguridad ng AI, magsagawa ng threat modeling bago gamitin, sistematikong bawasan ang mga attack surface, at tiyaking may aktibong programa sa pagpapabuti ng seguridad ang mga vendor. Bukod dito, mahalaga ang tuloy-tuloy na pagsasanay ng mga security team habang patuloy na umuunlad ang mga AI-driven na atake na lumalampas sa tradisyonal na mga depensa.

Gaya ng binanggit ng isang mananaliksik sa seguridad sa RISKS Forum, "Hindi lang ito tungkol sa pagdepensa laban sa mga atakeng pinapagana ng AI—kailangan nating kilalanin na ang mismong mga sistema ng AI natin ay nagiging pangunahing target."

Source: Seclists.org

Latest News