Yapay zekanın kritik altyapılara hızla entegre edilmesi, siber güvenlik uzmanlarına göre endişe verici bir güvenlik manzarası oluşturdu. Bu durum, 17 Mayıs 2025’te yayımlanan son RISKS Forum Digest’te öne çıkarıldı.
Dünya Ekonomik Forumu’nun 2025 Küresel Siber Güvenlik Görünümü raporu, kurumların %66’sının yapay zekayı bu yılın en büyük siber güvenlik dönüştürücüsü olarak gördüğünü, ancak yalnızca %37’sinin yapay zeka araçlarını devreye almadan önce güvenlik önlemleri uyguladığını ortaya koyuyor. Farkındalık ile eylem arasındaki bu kopukluk, sektörler genelinde önemli güvenlik açıklarına yol açıyor.
Birleşik Krallık Ulusal Siber Güvenlik Merkezi’nden (NCSC) bir sözcü, son raporlarında şu uyarıda bulundu: “Yapay zeka destekli tehditlere ayak uyduramayan kurumlar ve sistemler, tedarik zincirlerinde daha fazla kırılganlık noktası haline gelme riski taşıyor; zira bu durum, güvenlik açıklarına maruz kalma ve istismar edilme olasılığını artırıyor.” NCSC, 2027 yılına kadar yapay zeka destekli saldırganların, güvenlik açığının keşfi ile istismarı arasındaki süreyi daha da kısaltacağını öngörüyor. Bu süre, halihazırda sadece birkaç güne kadar inmiş durumda.
Siber güvenlik uzmanları, özellikle büyük dil modellerine (LLM) yönelik prompt enjeksiyon saldırılarından endişe duyuyor. Güvenlik araştırmacılarının aktardığı yakın tarihli bir sızma testinde, bir mum dükkanının yapay zeka sohbet robotu, prompt mühendisliği yoluyla ele geçirildi ve bu durum güvenlik, emniyet ve iş riski yarattı. Saldırı, sistem verilerinin çıkarılmasına ve sohbet robotunun yanıtlarının manipüle edilmesine olanak tanıyarak, zararsız görünen yapay zeka uygulamalarının ciddi güvenlik zafiyetlerine dönüşebileceğini gösterdi.
Tedarik zinciri açıkları ise bir diğer büyük endişe kaynağı. Büyük ölçekli kurumların %54’ü, tedarik zinciri açıklarını siber dayanıklılık sağlama yolundaki en büyük engel olarak tanımlıyor. Tedarik zincirlerinin artan karmaşıklığı ve tedarikçilerin güvenlik uygulamalarına dair sınırlı görünürlük, yapay zeka sistemlerinin üçüncü parti bileşenler üzerinden tehlikeye açık hale gelmesine yol açıyor.
Otonom kararlar alıp karmaşık görevleri kendi başına yerine getirebilen “ajanik yapay zeka”nın yükselişi, 2025’te tehdit ortamını dönüştürmesi beklenen bir diğer unsur. Cisco’ya bağlı Splunk’ın yapay zekadan sorumlu başkan yardımcısı Hao Yang, “Eskiden kullanıcıdan gelen komutlara yanıt veren yapay zeka asistanlarına odaklanıyorduk. Şimdi ise kendi başına karar alıp karmaşık görevleri yerine getirebilen ajanik yapay zeka araçlarına bakıyoruz,” dedi.
Uzmanlar, kurumlara resmi yapay zeka güvenlik politikaları uygulamalarını, devreye almadan önce tehdit modellemesi yapmalarını, saldırı yüzeyini sistematik olarak küçültmelerini ve tedarikçilerin aktif güvenlik iyileştirme programlarına sahip olmasını sağlamalarını öneriyor. Ayrıca, güvenlik ekiplerinin sürekli eğitimi, yapay zeka tabanlı saldırıların geleneksel savunma mekanizmalarını aşması nedeniyle kritik önem taşıyor.
RISKS Forum’daki bir güvenlik araştırmacısının da belirttiği gibi: “Değişim, yalnızca yapay zeka destekli saldırılara karşı savunma yapmakla ilgili değil—aynı zamanda kendi yapay zeka sistemlerimizin de artık başlıca hedefler haline geldiğini kabul etmekle ilgili.”