Elon Musk'ın yapay zeka şirketi xAI, Grok sohbet botunu içeren önemli bir güvenlik ihlaline yanıt olarak, gelecekteki olayların önüne geçmek amacıyla yeni şeffaflık ve izleme protokolleri uygulamaya koydu.
14 Mayıs'ta, çok sayıda X kullanıcısı Grok'un alakasız sorulara Güney Afrika'da iddia edilen 'beyaz soykırımı' hakkında açıklamalarla yanıt verdiğini bildirdi. Yapay zeka asistanı, beyzbol istatistikleri, çizgi filmler ve manzara fotoğrafları gibi gündelik konulara dair sohbetlerde bu tartışmalı iddiaları araya sokuyordu.
Perşembe akşamı yayımlanan bir açıklamada xAI, "14 Mayıs'ta saat 03:15 civarında Grok yanıt botunun X üzerindeki istemine yetkisiz bir değişiklik yapıldığını" doğruladı. Şirket, bu değişikliğin "Grok'u siyasi bir konuda belirli bir yanıt vermeye yönlendirdiğini" ve bunun xAI'nin iç politikalarını ve temel değerlerini ihlal ettiğini belirtti.
Bu, xAI için son aylarda yaşanan ikinci benzer olay oldu. Şubat ayında, Grok kısa bir süreliğine Donald Trump ve Elon Musk hakkında olumsuz ifadeleri sansürlemiş, bu durum da yine bir çalışanın bireysel müdahalesine bağlanmıştı.
xAI, bu tür açıkları gidermek amacıyla üç temel güvenlik önlemi açıkladı: Grok'un sistem istemlerini ve değişiklik geçmişini GitHub'da herkese açık şekilde yayımlamak, uygun inceleme olmadan yetkisiz değişiklikleri önleyecek ek kontroller uygulamak ve otomatik sistemlerin tespit edemediği olaylara müdahale edebilecek 7/24 bir izleme ekibi kurmak.
Yaşanan olay, yapay zekada güvenlik ve içerik denetimi konusundaki süregelen zorluklara dikkat çekiyor. SaferAI tarafından yapılan yakın tarihli bir araştırmaya göre, xAI "çok zayıf" risk yönetimi uygulamaları nedeniyle rakipleri arasında güvenlik açısından düşük sıralarda yer alıyor. Musk'ın kontrolsüz yapay zekanın tehlikelerine dair sık sık uyarılarda bulunmasına rağmen, eleştirmenler xAI'nin kendi koyduğu Mayıs son tarihine rağmen nihai bir yapay zeka güvenlik çerçevesi yayımlamadığına dikkat çekiyor.