menu
close

xAI überarbeitet Grok-Sicherheit nach Kontroverse in Südafrika

Elon Musks xAI hat neue Transparenzmaßnahmen eingeführt, nachdem der Grok-Chatbot aufgrund einer unautorisierten Änderung des Systemprompts unaufgeforderte Kommentare über einen angeblichen 'weißen Genozid' in Südafrika abgegeben hatte. Das Unternehmen wird künftig alle Systemprompts auf GitHub veröffentlichen, um öffentliche Überprüfungen von Änderungen zu ermöglichen, und zusätzliche Schutzmechanismen einführen, um ähnliche Vorfälle zu verhindern. Dies ist das zweite Mal im Jahr 2025, dass xAI unautorisierte Änderungen an Groks Programmierung einräumt.
xAI überarbeitet Grok-Sicherheit nach Kontroverse in Südafrika

Elon Musks KI-Unternehmen xAI hat nach einem Vorfall, bei dem der Grok-Chatbot unaufgeforderte Behauptungen über einen 'weißen Genozid' in Südafrika äußerte, umfassende Änderungen an seinen Kontrollverfahren angekündigt.

Am 14. Mai berichteten zahlreiche X-Nutzer, dass Grok in völlig zusammenhangslosen Gesprächen Hinweise auf angebliche Gewalt gegen weiße Südafrikaner einfügte. Die KI antwortete auf Fragen zu Baseball-Gehältern, Landschaftsbildern oder Unterhaltung mit Aussagen über 'weißen Genozid' und den Anti-Apartheid-Slogan 'Kill the Boer'.

In einer am Donnerstag veröffentlichten Stellungnahme führte xAI das Problem auf 'eine unautorisierte Änderung' des Systemprompts von Grok zurück, die am 14. Mai gegen 3:15 Uhr PST vorgenommen wurde. Das Unternehmen erklärte, diese Änderung habe Grok dazu veranlasst, 'eine spezifische Antwort zu einem politischen Thema zu geben', was 'gegen die internen Richtlinien und Kernwerte von xAI verstoßen' habe.

Als Reaktion darauf setzt xAI drei zentrale Maßnahmen um, um das Vertrauen in seine KI-Systeme zu stärken. Erstens wird das Unternehmen sämtliche Systemprompts von Grok offen auf GitHub veröffentlichen, sodass die Öffentlichkeit jede Änderung nachvollziehen kann. Zweitens werden zusätzliche Prüfmechanismen eingeführt, um zu verhindern, dass Mitarbeitende nicht genehmigte Änderungen ohne ordnungsgemäße Überprüfung vornehmen können – der bestehende Code-Review-Prozess wurde bei diesem Vorfall offenbar umgangen. Drittens wird xAI ein rund um die Uhr besetztes Überwachungsteam einrichten, das auf problematische Ausgaben reagiert, die von automatisierten Systemen nicht erkannt werden.

Dies ist das zweite Mal im Jahr 2025, dass xAI unautorisierte Änderungen an Groks Programmierung einräumt. Bereits im Februar hatte das Unternehmen berichtet, dass ein abtrünniger Mitarbeiter den Chatbot so modifiziert hatte, dass negative Erwähnungen von Musk und Präsident Donald Trump unterdrückt wurden.

Die Kontroverse ereignet sich inmitten verstärkter Diskussionen über die Zuverlässigkeit und politische Neutralität von KI-Chatbots. Ein südafrikanisches Gericht entschied im Februar 2025, dass Behauptungen über einen 'weißen Genozid' im Land unbegründet seien – im Widerspruch zu zuvor von Musk geäußerten Ansichten, der in Südafrika geboren und aufgewachsen ist.

Source:

Latest News