menu
close

Luki w bezpieczeństwie AI pogłębiają się wraz z ewolucją ataków w 2025 roku

Najnowsze ustalenia ujawniają, że krytyczne luki w zabezpieczeniach sztucznej inteligencji są wykorzystywane w bezprecedensowym tempie, a organizacje mają trudności z wdrożeniem odpowiednich zabezpieczeń. Brytyjskie Narodowe Centrum Cyberbezpieczeństwa ostrzega, że do 2027 roku atakujący wykorzystujący AI jeszcze bardziej skrócą czas między wykryciem a wykorzystaniem podatności, podczas gdy jedynie 37% organizacji posiada odpowiednie protokoły oceny bezpieczeństwa AI. Luki w łańcuchu dostaw oraz ataki typu prompt injection pozostają głównymi zagrożeniami w miarę przyspieszania wdrażania AI w różnych branżach.
Luki w bezpieczeństwie AI pogłębiają się wraz z ewolucją ataków w 2025 roku

Szybka integracja sztucznej inteligencji z infrastrukturą krytyczną stworzyła niepokojący krajobraz bezpieczeństwa – ostrzegają eksperci ds. cyberbezpieczeństwa cytowani w najnowszym wydaniu RISKS Forum Digest z 17 maja 2025 roku.

Według raportu Global Cybersecurity Outlook 2025 Światowego Forum Ekonomicznego, choć 66% organizacji uważa AI za największy przełom w cyberbezpieczeństwie w tym roku, tylko 37% wdrożyło zabezpieczenia pozwalające ocenić narzędzia AI przed ich wdrożeniem. Ta rozbieżność między świadomością a działaniem doprowadziła do powstania poważnych luk w różnych sektorach.

„Organizacje i systemy, które nie nadążają za zagrożeniami wykorzystującymi AI, mogą stać się kolejnymi słabymi ogniwami w łańcuchach dostaw, ze względu na zwiększoną ekspozycję na podatności i ich późniejsze wykorzystanie” – ostrzega rzecznik brytyjskiego Narodowego Centrum Cyberbezpieczeństwa (NCSC) w najnowszym raporcie. NCSC przewiduje, że do 2027 roku atakujący wykorzystujący AI jeszcze bardziej skrócą czas pomiędzy wykryciem podatności a jej wykorzystaniem – obecnie liczony już w dniach.

Specjaliści ds. cyberbezpieczeństwa są szczególnie zaniepokojeni atakami typu prompt injection na duże modele językowe (LLM). W niedawnym teście penetracyjnym, na który powołują się badacze bezpieczeństwa, chatbot AI sklepu z świecami został przejęty poprzez inżynierię promptów, co stworzyło ryzyka dla bezpieczeństwa, ochrony oraz działalności biznesowej. Atak umożliwił wyciągnięcie danych systemowych oraz manipulację odpowiedziami chatbota, pokazując, że nawet pozornie nieszkodliwe wdrożenia AI mogą stać się poważnym zagrożeniem.

Luki w łańcuchu dostaw to kolejny istotny problem – 54% dużych organizacji wskazuje je jako największą przeszkodę w osiągnięciu cyberodporności. Rosnąca złożoność łańcuchów dostaw, połączona z ograniczoną widocznością praktyk bezpieczeństwa dostawców, tworzy środowisko, w którym systemy AI mogą zostać skompromitowane przez komponenty stron trzecich.

Pojawienie się agentowej AI – systemów zdolnych do podejmowania decyzji i wykonywania złożonych zadań autonomicznie – ma całkowicie zmienić krajobraz zagrożeń w 2025 roku. „Dotychczas skupialiśmy się na asystentach AI, które odpowiadały na polecenia użytkowników. Teraz mamy do czynienia z agentowymi narzędziami AI, które mogą samodzielnie podejmować decyzje i realizować skomplikowane zadania” – wyjaśnia Hao Yang, wiceprezes ds. sztucznej inteligencji w należącej do Cisco firmie Splunk.

Eksperci zalecają organizacjom wdrożenie formalnych polityk bezpieczeństwa AI, przeprowadzanie modelowania zagrożeń przed wdrożeniem, systematyczne ograniczanie powierzchni ataku oraz upewnienie się, że dostawcy prowadzą aktywne programy poprawy bezpieczeństwa. Kluczowe jest także ciągłe szkolenie zespołów bezpieczeństwa, ponieważ ataki napędzane przez AI wykraczają poza tradycyjne mechanizmy obronne.

Jak zauważył jeden z badaczy bezpieczeństwa na forum RISKS: „Zmiana nie polega już tylko na obronie przed atakami z wykorzystaniem AI – musimy uznać, że nasze własne systemy AI stały się głównym celem ataków.”

Source: Seclists.org

Latest News