menu
close

OpenAI, 10 Devlet Destekli Yapay Zekâ Kötüye Kullanım Kampanyasını Engelledi

OpenAI'nin Haziran 2025 raporu, şirketin 2025'in başlarında ChatGPT'nin istihdam dolandırıcılıkları, etki operasyonları ve spam faaliyetlerinde kötüye kullanıldığı 10 zararlı kampanyayı nasıl engellediğini ayrıntılarıyla ortaya koyuyor. Çin, Rusya ve İran'dan devlet destekli aktörler, dolandırıcılıkları, siber saldırıları ve küresel etki kampanyalarını geliştirmek için yapay zekâ araçlarını kullandı. Üretken yapay zekâ yeni tehdit kategorileri yaratmasa da, kötü niyetli aktörler için teknik engelleri önemli ölçüde azaltarak koordineli saldırıların verimliliğini artırdı.
OpenAI, 10 Devlet Destekli Yapay Zekâ Kötüye Kullanım Kampanyasını Engelledi

OpenAI, "Yapay Zekânın Kötüye Kullanımının Engellenmesi: Haziran 2025" başlıklı kapsamlı bir rapor yayımlayarak, 2025'in ilk aylarında yapay zekâ sistemlerinin kötüye kullanıldığı 10 zararlı kampanyayı nasıl tespit edip etkisiz hale getirdiğini açıkladı.

Raporda, Çin, Rusya, Kuzey Kore, İran, Kamboçya ve Filipinler'den devlet destekli aktörlerin ChatGPT ve diğer yapay zekâ araçlarını istihdam dolandırıcılıkları, etki operasyonları ve spam kampanyaları yürütmek için kullandığı ayrıntılı şekilde anlatılıyor. Bu kampanyaların dördü Çin kaynaklı olup, sosyal mühendislik, gizli etki operasyonları ve siber tehditlere odaklanıyordu.

"Sneer Review" adlı bir kampanyada, Çinli aktörler, Çin Komünist Partisi'ne karşı direniş temalarını içeren Tayvanlı bir kutu oyununu hedef alarak sosyal medya platformlarını eleştirel yorumlarla doldurdu. "Helgoland Bite" adlı başka bir operasyonda ise Rus aktörler, ABD ve NATO'yu eleştiren Almanca içerikler üreterek Almanya'daki 2025 seçimlerini etkilemeye çalıştı. Kuzey Koreli aktörlerin ise, uzaktan çalışılan teknoloji pozisyonları için sahte özgeçmişleri toplu olarak üretmek ve işe alım sürecinde verilen kurumsal cihazların kontrolünü ele geçirmek amacıyla yapay zekâ kullandığı gözlemlendi.

OpenAI'nin güvenlik ekipleri, araştırmalarında yapay zekâyı bir çarpan etkisi olarak kullanarak sosyal mühendislik, siber casusluk ve aldatıcı istihdam planları dahil olmak üzere kötüye kullanım faaliyetlerini tespit, engelleme ve ifşa etme imkânı buldu. Şirketin tespit sistemleri, tüm kampanyalarda olağandışı davranışları işaretleyerek hesapların kapatılmasına ve partner platformlarla istihbarat paylaşımına yol açtı.

OpenAI raporunda, "Paylaşım ve şeffaflığın tüm paydaşlar arasında daha fazla farkındalık ve hazırlık sağlayarak sürekli gelişen tehditlere karşı daha güçlü bir ortak savunma oluşturduğuna inanıyoruz" ifadelerine yer verdi. Üretken yapay zekâ tamamen yeni tehdit kategorileri yaratmasa da, kötü niyetli aktörler için teknik engelleri önemli ölçüde azaltarak koordineli saldırıların verimliliğini artırdı.

Güvenlik uzmanları, kuruluşların, rakiplerin büyük dil modellerini operasyonlarında nasıl kullandığına karşı tetikte olmaları ve OpenAI, Google, Meta ve Anthropic gibi şirketlerin paylaştığı gerçek zamanlı istihbaratla iş birliği yaparak bu gelişen tehditlere karşı daha güçlü ortak savunmalar inşa etmeleri gerektiğini vurguluyor.

Source: Techrepublic

Latest News