Tumugon ang kumpanya ng artificial intelligence ni Elon Musk na xAI sa isang malaking paglabag sa seguridad na kinasasangkutan ng Grok chatbot, sa pamamagitan ng pagpapatupad ng mga bagong protocol para sa transparency at pagmamanman upang maiwasan ang mga susunod na insidente.
Noong Mayo 14, iniulat ng maraming X users na sumasagot si Grok ng mga pahayag tungkol sa umano'y 'white genocide' sa South Africa kahit sa mga hindi kaugnay na tanong. Isinasama ng AI assistant ang mga kontrobersyal na pahayag na ito sa mga usapan tungkol sa mga karaniwang paksa tulad ng baseball statistics, cartoons, at mga larawan ng tanawin.
Sa isang pahayag na inilabas noong Huwebes ng gabi, kinumpirma ng xAI na "isang hindi awtorisadong pagbabago ang ginawa sa prompt ng Grok response bot sa X" bandang 3:15 AM PST noong Mayo 14. Ayon sa kumpanya, ang pagbabagong ito ay "nag-utos kay Grok na magbigay ng partikular na tugon sa isang paksang politikal" na lumalabag sa mga panloob na polisiya at pangunahing halaga ng xAI.
Ito na ang pangalawang insidente ng ganitong uri para sa xAI sa mga nakaraang buwan. Noong Pebrero, pansamantalang sinensor ni Grok ang mga hindi kanais-nais na pagbanggit kina Donald Trump at Elon Musk, na iniuugnay din sa isang mapanlinlang na empleyado.
Upang tugunan ang mga kahinaang ito, inanunsyo ng xAI ang tatlong pangunahing panseguridad na hakbang: paglalathala ng mga system prompt ng Grok sa GitHub na may pampublikong changelog, pagpapatupad ng karagdagang mga tsek upang maiwasan ang hindi awtorisadong pagbabago nang walang wastong pagsusuri, at pagtatatag ng 24/7 na monitoring team upang agad tumugon sa mga insidenteng hindi natutukoy ng mga automated system.
Ibinabalandra ng insidenteng ito ang patuloy na hamon sa seguridad ng AI at moderasyon ng nilalaman. Ayon sa isang kamakailang pag-aaral ng SaferAI, mababa ang ranggo ng xAI sa kaligtasan kumpara sa mga katunggali nito dahil sa "napakahinang" pamamahala ng panganib. Sa kabila ng madalas na babala ni Musk tungkol sa panganib ng AI na walang kontrol, binigyang-diin ng mga kritiko na hindi natupad ng xAI ang sariling deadline nitong Mayo para maglathala ng pinal na balangkas ng AI safety.