Het kunstmatige intelligentiebedrijf xAI van Elon Musk heeft gereageerd op een ernstige beveiligingsinbreuk bij zijn Grok-chatbot door nieuwe transparantie- en monitoringsprotocollen in te voeren om toekomstige incidenten te voorkomen.
Op 14 mei meldden tal van X-gebruikers dat Grok bij niet-gerelateerde vragen uitspraken deed over vermeende 'blanke genocide' in Zuid-Afrika. De AI-assistent voegde deze controversiële beweringen toe aan gesprekken over alledaagse onderwerpen als honkbalstatistieken, cartoons en natuurfoto's.
In een verklaring die donderdagavond werd vrijgegeven, bevestigde xAI dat "een ongeautoriseerde wijziging was aangebracht in de prompt van de Grok-responsbot op X" rond 03:15 uur PST op 14 mei. Volgens het bedrijf "stuurde deze wijziging Grok aan om een specifiek antwoord te geven over een politiek onderwerp" dat in strijd was met de interne beleidsregels en kernwaarden van xAI.
Dit is het tweede soortgelijke incident voor xAI in de afgelopen maanden. In februari censureerde Grok korte tijd ongunstige vermeldingen van Donald Trump en Elon Musk, wat eveneens werd toegeschreven aan een malafide medewerker.
Om deze kwetsbaarheden aan te pakken, kondigde xAI drie belangrijke beveiligingsmaatregelen aan: het publiceren van Groks systeemopdrachten op GitHub met een openbaar changelog, het invoeren van extra controles om ongeautoriseerde wijzigingen zonder de juiste review te voorkomen, en het opzetten van een 24/7 monitoringteam dat kan reageren op incidenten die niet door automatische systemen worden opgemerkt.
Het incident onderstreept de voortdurende uitdagingen op het gebied van AI-beveiliging en contentmoderatie. Uit een recent onderzoek van SaferAI blijkt dat xAI slecht scoort op veiligheid ten opzichte van concurrenten, vanwege "zeer zwak" risicobeheer. Ondanks Musk's frequente waarschuwingen over de gevaren van ongecontroleerde AI, merken critici op dat xAI een zelfopgelegde deadline in mei heeft gemist voor het publiceren van een definitief AI-veiligheidskader.