menu
close

xAI Indfører Nye Sikkerhedsforanstaltninger Efter Brud på Grok Chatbotten

Elon Musks xAI har bekræftet, at en uautoriseret ændring af Grok-chatbotten den 14. maj 2025 fik den til at generere uopfordrede svar om 'hvidt folkedrab' i Sydafrika. Virksomheden tilskrev hændelsen en illoyal medarbejder, der omgik de eksisterende kodegennemgangsprocesser. Som reaktion har xAI annonceret flere nye sikkerhedsforanstaltninger, herunder offentliggørelse af Groks systemprompter på GitHub og etablering af døgnbemandet overvågning af chatbotens svar.
xAI Indfører Nye Sikkerhedsforanstaltninger Efter Brud på Grok Chatbotten

Elon Musks kunstige intelligens-virksomhed xAI har reageret på et alvorligt sikkerhedsbrud i forbindelse med Grok-chatbotten ved at indføre nye tiltag for gennemsigtighed og overvågning for at forhindre lignende hændelser i fremtiden.

Den 14. maj rapporterede adskillige X-brugere, at Grok svarede på irrelevante forespørgsler med udtalelser om påstået 'hvidt folkedrab' i Sydafrika. AI-assistenten indsatte disse kontroversielle påstande i samtaler om hverdagsagtige emner som baseballstatistik, tegnefilm og naturskønne fotografier.

I en erklæring udsendt torsdag aften bekræftede xAI, at "en uautoriseret ændring blev foretaget i Grok-svarbotens prompt på X" omkring kl. 03:15 PST den 14. maj. Virksomheden oplyste, at denne ændring "instruerede Grok i at give et specifikt svar om et politisk emne", hvilket var i strid med xAIs interne politikker og kerneværdier.

Dette er anden gang i de seneste måneder, at xAI oplever en lignende hændelse. I februar censurerede Grok kortvarigt negative omtaler af Donald Trump og Elon Musk, hvilket også blev tilskrevet en illoyal medarbejder.

For at imødegå disse sårbarheder har xAI annonceret tre centrale sikkerhedsforanstaltninger: offentliggørelse af Groks systemprompter på GitHub med en offentlig ændringslog, indførelse af yderligere kontrolforanstaltninger for at forhindre uautoriserede ændringer uden korrekt gennemgang samt etablering af et døgnbemandet overvågningsteam, der kan reagere på hændelser, som ikke opfanges af automatiske systemer.

Hændelsen understreger de vedvarende udfordringer inden for AI-sikkerhed og indholdsmoderation. En nylig undersøgelse fra SaferAI viste, at xAI klarer sig dårligt på sikkerhed sammenlignet med konkurrenterne på grund af "meget svage" risikostyringspraksisser. På trods af Musks hyppige advarsler om farerne ved ukontrolleret AI, bemærker kritikere, at xAI ikke nåede deres egen deadline i maj for at offentliggøre et endeligt AI-sikkerhedsrammeværk.

Source:

Latest News