Elon Musks kunstige intelligens-virksomhed xAI har reageret på et alvorligt sikkerhedsbrud i forbindelse med Grok-chatbotten ved at indføre nye tiltag for gennemsigtighed og overvågning for at forhindre lignende hændelser i fremtiden.
Den 14. maj rapporterede adskillige X-brugere, at Grok svarede på irrelevante forespørgsler med udtalelser om påstået 'hvidt folkedrab' i Sydafrika. AI-assistenten indsatte disse kontroversielle påstande i samtaler om hverdagsagtige emner som baseballstatistik, tegnefilm og naturskønne fotografier.
I en erklæring udsendt torsdag aften bekræftede xAI, at "en uautoriseret ændring blev foretaget i Grok-svarbotens prompt på X" omkring kl. 03:15 PST den 14. maj. Virksomheden oplyste, at denne ændring "instruerede Grok i at give et specifikt svar om et politisk emne", hvilket var i strid med xAIs interne politikker og kerneværdier.
Dette er anden gang i de seneste måneder, at xAI oplever en lignende hændelse. I februar censurerede Grok kortvarigt negative omtaler af Donald Trump og Elon Musk, hvilket også blev tilskrevet en illoyal medarbejder.
For at imødegå disse sårbarheder har xAI annonceret tre centrale sikkerhedsforanstaltninger: offentliggørelse af Groks systemprompter på GitHub med en offentlig ændringslog, indførelse af yderligere kontrolforanstaltninger for at forhindre uautoriserede ændringer uden korrekt gennemgang samt etablering af et døgnbemandet overvågningsteam, der kan reagere på hændelser, som ikke opfanges af automatiske systemer.
Hændelsen understreger de vedvarende udfordringer inden for AI-sikkerhed og indholdsmoderation. En nylig undersøgelse fra SaferAI viste, at xAI klarer sig dårligt på sikkerhed sammenlignet med konkurrenterne på grund af "meget svage" risikostyringspraksisser. På trods af Musks hyppige advarsler om farerne ved ukontrolleret AI, bemærker kritikere, at xAI ikke nåede deres egen deadline i maj for at offentliggøre et endeligt AI-sikkerhedsrammeværk.