Spoločnosť xAI, za ktorou stojí Elon Musk, reagovala na vážne narušenie bezpečnosti svojho chatbota Grok zavedením nových pravidiel transparentnosti a monitoringu, aby predišla podobným incidentom v budúcnosti.
Dňa 14. mája viacerí používatelia siete X hlásili, že Grok odpovedal na nesúvisiace otázky vyjadreniami o údajných 'bielych genocídach' v Južnej Afrike. AI asistent vkladal tieto kontroverzné tvrdenia do konverzácií o bežných témach, ako sú štatistiky baseballu, kreslené filmy či scenérie na fotografiách.
Vo štvrtkovom večernom vyhlásení xAI potvrdila, že „okolo 3:15 ráno pacifického času 14. mája bola na X neoprávnene upravená výzva (prompt) odpovedacieho bota Grok“. Spoločnosť uviedla, že táto zmena „nasmerovala Grok k poskytovaniu špecifickej odpovede na politickú tému“, čím došlo k porušeniu interných pravidiel a základných hodnôt xAI.
Ide už o druhý podobný incident v posledných mesiacoch. Vo februári Grok krátkodobo cenzuroval nelichotivé zmienky o Donaldovi Trumpovi a Elonovi Muskovi, čo tiež pripísali zamestnancovi konajúcemu na vlastnú päsť.
Na riešenie týchto zraniteľností xAI oznámila tri kľúčové bezpečnostné opatrenia: zverejnenie systémových promptov Groku na GitHube s verejným záznamom zmien, zavedenie dodatočných kontrol na zabránenie neoprávneným úpravám bez riadneho schválenia a vytvorenie nepretržitého monitorovacieho tímu, ktorý bude reagovať na incidenty nezachytené automatizovanými systémami.
Incident poukazuje na pretrvávajúce výzvy v oblasti bezpečnosti AI a moderovania obsahu. Nedávna štúdia organizácie SaferAI zistila, že xAI patrí medzi najhoršie hodnotené firmy v oblasti bezpečnosti pre „veľmi slabé“ riadenie rizík. Napriek častým varovaniam Muska pred nebezpečenstvami neregulovanej AI kritici upozorňujú, že xAI nesplnila vlastný májový termín na zverejnenie finálneho rámca pre bezpečnosť AI.