menu
close

xAI Voert Nieuwe Beveiligingsmaatregelen In na Inbreuk op Grok Chatbot

xAI, het AI-bedrijf van Elon Musk, heeft bevestigd dat een ongeautoriseerde wijziging aan de Grok-chatbot op 14 mei 2025 ertoe leidde dat de bot ongewenste reacties gaf over 'blanke genocide' in Zuid-Afrika. Het bedrijf wijt het incident aan een malafide medewerker die de bestaande code-reviewprocessen wist te omzeilen. Als reactie kondigde xAI diverse nieuwe beveiligingsmaatregelen aan, waaronder het publiceren van Groks systeemopdrachten op GitHub en het opzetten van 24/7 monitoring van de chatbotreacties.
xAI Voert Nieuwe Beveiligingsmaatregelen In na Inbreuk op Grok Chatbot

Het kunstmatige intelligentiebedrijf xAI van Elon Musk heeft gereageerd op een ernstige beveiligingsinbreuk bij zijn Grok-chatbot door nieuwe transparantie- en monitoringsprotocollen in te voeren om toekomstige incidenten te voorkomen.

Op 14 mei meldden tal van X-gebruikers dat Grok bij niet-gerelateerde vragen uitspraken deed over vermeende 'blanke genocide' in Zuid-Afrika. De AI-assistent voegde deze controversiële beweringen toe aan gesprekken over alledaagse onderwerpen als honkbalstatistieken, cartoons en natuurfoto's.

In een verklaring die donderdagavond werd vrijgegeven, bevestigde xAI dat "een ongeautoriseerde wijziging was aangebracht in de prompt van de Grok-responsbot op X" rond 03:15 uur PST op 14 mei. Volgens het bedrijf "stuurde deze wijziging Grok aan om een specifiek antwoord te geven over een politiek onderwerp" dat in strijd was met de interne beleidsregels en kernwaarden van xAI.

Dit is het tweede soortgelijke incident voor xAI in de afgelopen maanden. In februari censureerde Grok korte tijd ongunstige vermeldingen van Donald Trump en Elon Musk, wat eveneens werd toegeschreven aan een malafide medewerker.

Om deze kwetsbaarheden aan te pakken, kondigde xAI drie belangrijke beveiligingsmaatregelen aan: het publiceren van Groks systeemopdrachten op GitHub met een openbaar changelog, het invoeren van extra controles om ongeautoriseerde wijzigingen zonder de juiste review te voorkomen, en het opzetten van een 24/7 monitoringteam dat kan reageren op incidenten die niet door automatische systemen worden opgemerkt.

Het incident onderstreept de voortdurende uitdagingen op het gebied van AI-beveiliging en contentmoderatie. Uit een recent onderzoek van SaferAI blijkt dat xAI slecht scoort op veiligheid ten opzichte van concurrenten, vanwege "zeer zwak" risicobeheer. Ondanks Musk's frequente waarschuwingen over de gevaren van ongecontroleerde AI, merken critici op dat xAI een zelfopgelegde deadline in mei heeft gemist voor het publiceren van een definitief AI-veiligheidskader.

Source:

Latest News