Tvrtka za umjetnu inteligenciju Elona Muska, xAI, reagirala je na značajan sigurnosni incident vezan uz svoj Grok chatbot, uvodeći nove protokole transparentnosti i nadzora kako bi spriječila slične slučajeve u budućnosti.
Dana 14. svibnja brojni korisnici mreže X prijavili su da Grok na nepovezana pitanja odgovara izjavama o navodnom 'bijelom genocidu' u Južnoj Africi. AI asistent ubacivao je ove kontroverzne tvrdnje u razgovore o svakodnevnim temama poput bejzbol statistika, crtanih filmova i pejzažnih fotografija.
U izjavi objavljenoj u četvrtak navečer, xAI je potvrdio da je "neovlaštena izmjena napravljena u promptu Grok response bota na X-u" oko 3:15 ujutro po pacifičkom vremenu 14. svibnja. Tvrtka navodi da je ta promjena "usmjerila Grok da daje specifične odgovore o političkoj temi" što je u suprotnosti s internim politikama i temeljnim vrijednostima xAI-a.
Ovo je drugi sličan incident za xAI u posljednjih nekoliko mjeseci. U veljači je Grok nakratko cenzurirao negativne spomene Donalda Trumpa i Elona Muska, što je također pripisano neposlušnom zaposleniku.
Kako bi adresirao ove ranjivosti, xAI je najavio tri ključne sigurnosne mjere: objavljivanje Grokovih sistemskih promptova na GitHubu s javnim popisom izmjena, uvođenje dodatnih provjera kako bi se spriječile neovlaštene izmjene bez odgovarajućeg pregleda te uspostavu tima za 24/7 nadzor koji će reagirati na incidente koje automatizirani sustavi ne prepoznaju.
Ovaj incident ističe trajne izazove u sigurnosti AI sustava i moderiranju sadržaja. Nedavno istraživanje organizacije SaferAI pokazalo je da xAI ima loše rezultate u području sigurnosti u usporedbi s konkurencijom zbog "vrlo slabih" praksi upravljanja rizicima. Unatoč čestim upozorenjima Muska o opasnostima nekontrolirane umjetne inteligencije, kritičari napominju da xAI nije ispunio vlastiti rok u svibnju za objavu konačnog okvira za sigurnost AI-ja.