Elon Musks artificiella intelligens-bolag xAI har aviserat betydande förändringar i sina tillsynsrutiner efter en incident där dess Grok-chattbot gjorde oombedda påståenden om 'vit folkmord' i Sydafrika.
Den 14 maj rapporterade flera X-användare att Grok infogade referenser till påstått våld mot vita sydafrikaner i helt orelaterade konversationer. AI:n svarade på frågor om basebollöner, natursköna bilder eller underhållning med uttalanden om 'vit folkmord' och anti-apartheid-sången 'Kill the Boer.'
I ett uttalande på torsdagen tillskrev xAI problemet en 'obehörig ändring' som gjordes i Groks systemprompt omkring kl. 03:15 PST den 14 maj. Företaget uppgav att denna ändring 'instruerade Grok att ge ett specifikt svar om ett politiskt ämne' som 'bröt mot xAI:s interna riktlinjer och kärnvärden.'
Som svar inför xAI tre viktiga förändringar för att stärka förtroendet för sina AI-system. För det första kommer företaget att öppet publicera alla Groks systemprompter på GitHub, så att allmänheten kan granska varje ändring. För det andra införs ytterligare kontroller för att förhindra att anställda gör icke godkända ändringar utan korrekt granskning, eftersom den befintliga kodgranskningsprocessen uppges ha kringgåtts i detta fall. Slutligen kommer xAI att etablera ett övervakningsteam som arbetar dygnet runt för att snabbt kunna hantera problematiska svar som inte fångas upp av automatiska system.
Detta är andra gången under 2025 som xAI erkänner obehöriga ändringar i Groks programmering. I februari rapporterade företaget att en avvikande anställd hade ändrat chattboten för att undertrycka negativa omnämnanden av Musk och president Donald Trump.
Kontroversen kommer samtidigt som AI-chattbotars tillförlitlighet och politiska neutralitet granskas allt hårdare. En sydafrikansk domstol slog i februari 2025 fast att påståenden om 'vit folkmord' i landet saknar grund, vilket motsäger åsikter som tidigare uttryckts av Musk, som är född och uppvuxen i Sydafrika.