Společnost xAI, zabývající se umělou inteligencí pod vedením Elona Muska, reagovala na závažné narušení bezpečnosti svého chatbota Grok zavedením nových protokolů pro transparentnost a monitoring, aby předešla podobným incidentům v budoucnu.
Dne 14. května si řada uživatelů sítě X všimla, že Grok odpovídá na nesouvisející dotazy tvrzeními o údajné 'bílé genocidě' v Jižní Africe. Asistent s umělou inteligencí vkládal tyto kontroverzní výroky do konverzací o běžných tématech, jako jsou statistiky baseballu, kreslené filmy či fotografie krajiny.
Ve čtvrtečním večerním prohlášení xAI potvrdila, že "k neoprávněné úpravě promptu Grok response bota na X došlo přibližně ve 3:15 ráno pacifického času 14. května". Společnost uvedla, že tato změna "nařídila Groku poskytovat specifickou odpověď na politické téma", což bylo v rozporu s interními zásadami a základními hodnotami xAI.
Jedná se již o druhý podobný incident u xAI v posledních měsících. V únoru Grok krátce cenzuroval nelichotivé zmínky o Donaldu Trumpovi a Elonu Muskovi, což bylo rovněž přičítáno odpadlému zaměstnanci.
Aby společnost tyto slabiny odstranila, oznámila tři klíčová bezpečnostní opatření: zveřejnění systémových promptů Groku na GitHubu spolu s veřejným záznamem změn, zavedení dalších kontrol, které zabrání neoprávněným úpravám bez řádné revize, a vytvoření týmu pro nepřetržitý monitoring, jenž bude reagovat na incidenty, které nezachytí automatizované systémy.
Incident poukazuje na přetrvávající výzvy v oblasti bezpečnosti AI a moderace obsahu. Nedávná studie SaferAI zjistila, že xAI patří mezi nejhorší ve své kategorii, co se týče bezpečnosti, kvůli "velmi slabým" postupům řízení rizik. Navzdory častým varováním Muska před nebezpečím nekontrolované AI kritici upozorňují, že xAI nesplnila svůj vlastní květnový termín pro zveřejnění finálního rámce bezpečnosti AI.