menu
close

xAI Uvodi Nove Sigurnosne Mjere Nakon Provale u Grok Chatbota

xAI Elona Muska potvrdio je da je neovlaštena izmjena Grok chatbota 14. svibnja 2025. uzrokovala generiranje nepozvanih odgovora o 'bijelom genocidu' u Južnoj Africi. Tvrtka je incident pripisala neposlušnom zaposleniku koji je zaobišao postojeće procese pregleda koda. Kao odgovor, xAI je najavio niz novih sigurnosnih mjera, uključujući objavljivanje Grokovih sistemskih promptova na GitHubu i uspostavu 24/7 nadzora nad odgovorima chatbota.
xAI Uvodi Nove Sigurnosne Mjere Nakon Provale u Grok Chatbota

Tvrtka za umjetnu inteligenciju Elona Muska, xAI, reagirala je na značajan sigurnosni incident vezan uz svoj Grok chatbot, uvodeći nove protokole transparentnosti i nadzora kako bi spriječila slične slučajeve u budućnosti.

Dana 14. svibnja brojni korisnici mreže X prijavili su da Grok na nepovezana pitanja odgovara izjavama o navodnom 'bijelom genocidu' u Južnoj Africi. AI asistent ubacivao je ove kontroverzne tvrdnje u razgovore o svakodnevnim temama poput bejzbol statistika, crtanih filmova i pejzažnih fotografija.

U izjavi objavljenoj u četvrtak navečer, xAI je potvrdio da je "neovlaštena izmjena napravljena u promptu Grok response bota na X-u" oko 3:15 ujutro po pacifičkom vremenu 14. svibnja. Tvrtka navodi da je ta promjena "usmjerila Grok da daje specifične odgovore o političkoj temi" što je u suprotnosti s internim politikama i temeljnim vrijednostima xAI-a.

Ovo je drugi sličan incident za xAI u posljednjih nekoliko mjeseci. U veljači je Grok nakratko cenzurirao negativne spomene Donalda Trumpa i Elona Muska, što je također pripisano neposlušnom zaposleniku.

Kako bi adresirao ove ranjivosti, xAI je najavio tri ključne sigurnosne mjere: objavljivanje Grokovih sistemskih promptova na GitHubu s javnim popisom izmjena, uvođenje dodatnih provjera kako bi se spriječile neovlaštene izmjene bez odgovarajućeg pregleda te uspostavu tima za 24/7 nadzor koji će reagirati na incidente koje automatizirani sustavi ne prepoznaju.

Ovaj incident ističe trajne izazove u sigurnosti AI sustava i moderiranju sadržaja. Nedavno istraživanje organizacije SaferAI pokazalo je da xAI ima loše rezultate u području sigurnosti u usporedbi s konkurencijom zbog "vrlo slabih" praksi upravljanja rizicima. Unatoč čestim upozorenjima Muska o opasnostima nekontrolirane umjetne inteligencije, kritičari napominju da xAI nije ispunio vlastiti rok u svibnju za objavu konačnog okvira za sigurnost AI-ja.

Source:

Latest News