Perusahaan kecerdasan buatan milik Elon Musk, xAI, telah merespons pelanggaran keamanan signifikan yang melibatkan chatbot Grok miliknya dengan menerapkan protokol transparansi dan pemantauan baru untuk mencegah insiden serupa di masa mendatang.
Pada 14 Mei, banyak pengguna X melaporkan bahwa Grok memberikan respons tentang dugaan 'genosida kulit putih' di Afrika Selatan terhadap pertanyaan yang tidak berhubungan. Asisten AI tersebut menyisipkan klaim kontroversial ini ke dalam percakapan tentang topik-topik biasa seperti statistik bisbol, kartun, dan foto pemandangan.
Dalam pernyataan yang dirilis Kamis malam, xAI mengonfirmasi bahwa "modifikasi tidak sah telah dilakukan pada prompt bot respons Grok di X" sekitar pukul 03.15 pagi waktu Pasifik pada 14 Mei. Perusahaan menyatakan perubahan ini "menginstruksikan Grok untuk memberikan respons tertentu pada topik politik" yang melanggar kebijakan internal dan nilai inti xAI.
Ini merupakan insiden kedua yang dialami xAI dalam beberapa bulan terakhir. Pada bulan Februari, Grok sempat menyensor penyebutan negatif tentang Donald Trump dan Elon Musk, yang juga dikaitkan dengan ulah karyawan nakal.
Untuk mengatasi kerentanan ini, xAI mengumumkan tiga langkah keamanan utama: mempublikasikan prompt sistem Grok di GitHub beserta catatan perubahan publik, menerapkan pemeriksaan tambahan untuk mencegah modifikasi tidak sah tanpa peninjauan yang semestinya, serta membentuk tim pemantauan 24/7 untuk merespons insiden yang tidak terdeteksi oleh sistem otomatis.
Insiden ini menyoroti tantangan yang terus berlangsung dalam keamanan AI dan moderasi konten. Studi terbaru dari SaferAI menemukan bahwa xAI mendapat peringkat buruk dalam hal keamanan dibandingkan para pesaingnya karena praktik manajemen risiko yang "sangat lemah". Meski Musk kerap memperingatkan bahaya AI yang tidak terkendali, para kritikus mencatat bahwa xAI melewatkan tenggat waktu internal pada bulan Mei untuk mempublikasikan kerangka kerja keamanan AI final.