menu
close

Google, Yapay Zeka Ajanlarının Güvenliğini Tehdit Eden 'Ölümcül Üçlü'yü Tanımladı

Google araştırmacıları Santiago Díaz, Christoph Kern ve Kara Olive, yapay zeka ajanlarının güvenlik açıklarına dair çığır açıcı bir araştırma yayımladı. Haziran 2025 tarihli makalede, 'ölümcül üçlü' olarak adlandırılan kritik bir güvenlik deseni tanımlanıyor: özel veri erişimi, güvenilmeyen içeriğe maruz kalma ve harici iletişim yeteneklerinin tehlikeli birleşimi. Araştırma, giderek daha özerk hale gelen yapay zeka sistemlerini prompt enjeksiyonu ve veri sızdırma saldırılarına karşı korumak için önemli içgörüler sunuyor.
Google, Yapay Zeka Ajanlarının Güvenliğini Tehdit Eden 'Ölümcül Üçlü'yü Tanımladı

Yapay zeka güvenliği alanında önemli bir gelişme olarak, Google araştırmacıları, yapay zeka ajanı sistemlerinin bütünlüğünü tehdit eden temel bir güvenlik açığı desenini tanımladı.

15 Haziran 2025'te Google'ın güvenlik ekibi, Santiago Díaz, Christoph Kern ve Kara Olive tarafından kaleme alınan 'Google'ın Yapay Zeka Ajanı Güvenliğine Yaklaşımına Giriş' başlıklı makaleyi yayımladı. Makalede, Google'ın 'çevresini algılayan, kararlar alan ve kullanıcı tarafından tanımlanan hedeflere ulaşmak için özerk eylemler gerçekleştiren yapay zeka sistemleri' olarak tanımladığı yapay zeka ajanlarının güvenliğini sağlamak için öngörülen çerçeve anlatılıyor.

Araştırmada iki temel güvenlik endişesi öne çıkarılıyor: kötü niyetli eylemler (istenmeyen, zararlı veya politika ihlali oluşturan davranışlar) ve hassas veri ifşası (özel bilgilerin yetkisiz şekilde açığa çıkması). Bu risklere karşı Google, geleneksel güvenlik kontrollerini dinamik, akıl yürütmeye dayalı savunmalarla birleştiren hibrit, derinlemesine savunma stratejisini öneriyor.

Bunu, 16 Haziran 2025'te yayımlanan ve yapay zeka ajanları için 'ölümcül üçlü' kavramını tanıtan ilgili bir yayın izledi. Bu kavram, ciddi güvenlik açıkları yaratan üç yeteneğin tehlikeli birleşimini ifade ediyor: özel verilere erişim, güvenilmeyen içeriğe maruz kalma ve harici iletişim kurabilme. Bu üç unsur bir yapay zeka sisteminde bir araya geldiğinde, saldırganlar ajanı hassas bilgilere erişmesi ve bu bilgileri dışarıya sızdırması için kandırabiliyor.

Birkaç yıl önce 'prompt enjeksiyonu' terimini ortaya atan güvenlik araştırmacısı Simon Willison, bu güvenlik açığı deseninin anlaşılmasının önemine dikkat çekti. Willison, Google araştırmasını analiz ederken, 'Eğer ajanınız bu üç özelliği birleştiriyorsa, bir saldırgan kolayca onu özel verilerinize erişmeye ve bu verileri kendisine göndermeye ikna edebilir,' dedi.

Bu araştırmanın zamanlaması, yapay zeka ajanlarının daha fazla özerklik ve hassas sistemlere erişim kazandığı bir dönemde özellikle dikkat çekici. Microsoft, Google ve Anthropic gibi büyük teknoloji şirketleri, son iki yılda yapay zeka ürünlerinde benzer güvenlik sorunları yaşadı; ChatGPT, Microsoft Copilot ve Google Bard gibi sistemleri etkileyen onlarca veri sızdırma saldırısı belgelendi.

Google'ın araştırması, ajan güvenliği için üç temel ilke öneriyor: ajanların iyi tanımlanmış insan kontrolörleri olmalı, yetkileri dikkatlice sınırlandırılmalı ve eylemleri ile planlamaları gözlemlenebilir olmalı. Bu yönergeler, giderek daha özerk hale gelen yapay zeka güvenlik ortamında, yapay zeka ajanı sistemlerini uygulayan geliştiriciler ve kuruluşlar için değerli bir çerçeve sunuyor.

Source:

Latest News