menu
close

xAI führt neue Sicherheitsmaßnahmen nach Grok-Chatbot-Sicherheitslücke ein

Elon Musks xAI hat bestätigt, dass am 14. Mai 2025 eine unautorisierte Änderung an seinem Grok-Chatbot dazu führte, dass dieser ungefragt Antworten zum Thema 'weißer Genozid' in Südafrika generierte. Das Unternehmen macht einen abtrünnigen Mitarbeiter verantwortlich, der bestehende Code-Review-Prozesse umgangen habe. Als Reaktion kündigte xAI mehrere neue Sicherheitsmaßnahmen an, darunter die Veröffentlichung der Grok-Systemprompts auf GitHub sowie die Einrichtung einer 24/7-Überwachung der Chatbot-Antworten.
xAI führt neue Sicherheitsmaßnahmen nach Grok-Chatbot-Sicherheitslücke ein

Elon Musks KI-Unternehmen xAI hat auf eine schwerwiegende Sicherheitslücke bei seinem Grok-Chatbot reagiert und neue Transparenz- sowie Überwachungsprotokolle eingeführt, um künftige Vorfälle zu verhindern.

Am 14. Mai berichteten zahlreiche X-Nutzer, dass Grok auf nicht zusammenhängende Anfragen mit Aussagen über den angeblichen 'weißen Genozid' in Südafrika reagierte. Der KI-Assistent streute diese kontroversen Behauptungen in Gespräche über alltägliche Themen wie Baseball-Statistiken, Cartoons oder Landschaftsfotografien ein.

In einer am Donnerstagabend veröffentlichten Stellungnahme bestätigte xAI, dass „am 14. Mai gegen 3:15 Uhr PST eine unautorisierte Änderung am Prompt des Grok-Response-Bots auf X vorgenommen wurde“. Das Unternehmen erklärte, diese Änderung habe „Grok dazu angewiesen, eine spezifische Antwort zu einem politischen Thema zu geben“, was gegen interne Richtlinien und Grundwerte von xAI verstoße.

Dies ist bereits der zweite derartige Vorfall bei xAI in den vergangenen Monaten. Im Februar hatte Grok kurzzeitig unvorteilhafte Erwähnungen von Donald Trump und Elon Musk zensiert – auch dies wurde einem abtrünnigen Mitarbeiter zugeschrieben.

Um diese Schwachstellen zu adressieren, kündigte xAI drei zentrale Sicherheitsmaßnahmen an: die Veröffentlichung der Grok-Systemprompts samt öffentlichem Änderungsprotokoll auf GitHub, zusätzliche Prüfmechanismen, um unautorisierte Änderungen ohne ordnungsgemäße Überprüfung zu verhindern, sowie die Einrichtung eines 24/7-Überwachungsteams, das auf Vorfälle reagieren soll, die von automatisierten Systemen nicht erkannt werden.

Der Vorfall unterstreicht die anhaltenden Herausforderungen im Bereich KI-Sicherheit und Inhaltsmoderation. Eine aktuelle Studie von SaferAI ergab, dass xAI im Branchenvergleich in puncto Sicherheit schlecht abschneidet – Grund seien „sehr schwache“ Risikomanagement-Praktiken. Trotz Musks wiederholter Warnungen vor den Gefahren unkontrollierter KI weisen Kritiker darauf hin, dass xAI eine selbst gesetzte Frist im Mai zur Veröffentlichung eines endgültigen KI-Sicherheitsrahmens verpasst hat.

Source:

Latest News