menu
close

xAI Laksana Langkah Keselamatan Baharu Selepas Insiden Pelanggaran Chatbot Grok

xAI milik Elon Musk telah mengesahkan bahawa pengubahsuaian tanpa kebenaran terhadap chatbot Grok pada 14 Mei 2025 menyebabkan ia menghasilkan respons tidak diminta mengenai 'pembunuhan beramai-ramai orang kulit putih' di Afrika Selatan. Syarikat itu menyatakan insiden ini berpunca daripada seorang pekerja yang bertindak di luar kawalan dan mengelak proses semakan kod sedia ada. Sebagai tindak balas, xAI mengumumkan beberapa langkah keselamatan baharu, termasuk menerbitkan arahan sistem Grok di GitHub dan mewujudkan pemantauan 24/7 terhadap respons chatbot tersebut.
xAI Laksana Langkah Keselamatan Baharu Selepas Insiden Pelanggaran Chatbot Grok

Syarikat kecerdasan buatan milik Elon Musk, xAI, telah bertindak balas terhadap pelanggaran keselamatan serius yang melibatkan chatbot Grok dengan melaksanakan protokol ketelusan dan pemantauan baharu bagi mengelakkan insiden berulang pada masa hadapan.

Pada 14 Mei, ramai pengguna X melaporkan bahawa Grok memberikan respons berkaitan dakwaan 'pembunuhan beramai-ramai orang kulit putih' di Afrika Selatan walaupun soalan yang diajukan tidak berkaitan. Pembantu AI itu memasukkan dakwaan kontroversi ini ke dalam perbualan mengenai topik biasa seperti statistik besbol, kartun dan gambar pemandangan.

Dalam kenyataan yang dikeluarkan pada malam Khamis, xAI mengesahkan bahawa "satu pengubahsuaian tanpa kebenaran telah dibuat pada prompt bot respons Grok di X" sekitar jam 3:15 pagi PST pada 14 Mei. Syarikat itu menyatakan perubahan ini "mengarah Grok untuk memberikan respons tertentu mengenai topik politik" yang melanggar polisi dalaman dan nilai teras xAI.

Ini merupakan insiden kedua seumpamanya bagi xAI dalam beberapa bulan kebelakangan ini. Pada Februari, Grok pernah menapis sebutan tidak menyenangkan mengenai Donald Trump dan Elon Musk, yang juga dikaitkan dengan tindakan pekerja yang bertindak di luar kawalan.

Bagi menangani kelemahan ini, xAI mengumumkan tiga langkah keselamatan utama: menerbitkan arahan sistem Grok di GitHub bersama log perubahan awam, melaksanakan semakan tambahan bagi menghalang pengubahsuaian tanpa kebenaran tanpa semakan sewajarnya, dan mewujudkan pasukan pemantauan 24/7 untuk bertindak balas terhadap insiden yang tidak dikesan oleh sistem automasi.

Insiden ini menyerlahkan cabaran berterusan dalam aspek keselamatan AI dan moderasi kandungan. Satu kajian terkini oleh SaferAI mendapati xAI berada pada kedudukan rendah dari segi keselamatan berbanding pesaingnya kerana amalan pengurusan risiko yang "sangat lemah". Walaupun Musk kerap memberi amaran mengenai bahaya AI yang tidak terkawal, pengkritik menyatakan xAI gagal memenuhi tarikh akhir sendiri pada bulan Mei untuk menerbitkan rangka kerja keselamatan AI yang muktamad.

Source:

Latest News