menu
close

xAI zavádza nové bezpečnostné opatrenia po narušení bezpečnosti chatbota Grok

Spoločnosť xAI Elona Muska potvrdila, že 14. mája 2025 došlo k neoprávnenej úprave chatbota Grok, v dôsledku ktorej začal generovať nevyžiadané odpovede o 'bielom genocíde' v Južnej Afrike. Firma incident pripísala zamestnancovi, ktorý obišiel existujúce procesy kontroly kódu. Ako reakciu xAI oznámila viacero nových bezpečnostných opatrení, vrátane zverejnenia systémových promptov Groku na GitHube a zavedenia nepretržitého monitoringu odpovedí chatbota.
xAI zavádza nové bezpečnostné opatrenia po narušení bezpečnosti chatbota Grok

Spoločnosť xAI, za ktorou stojí Elon Musk, reagovala na vážne narušenie bezpečnosti svojho chatbota Grok zavedením nových pravidiel transparentnosti a monitoringu, aby predišla podobným incidentom v budúcnosti.

Dňa 14. mája viacerí používatelia siete X hlásili, že Grok odpovedal na nesúvisiace otázky vyjadreniami o údajných 'bielych genocídach' v Južnej Afrike. AI asistent vkladal tieto kontroverzné tvrdenia do konverzácií o bežných témach, ako sú štatistiky baseballu, kreslené filmy či scenérie na fotografiách.

Vo štvrtkovom večernom vyhlásení xAI potvrdila, že „okolo 3:15 ráno pacifického času 14. mája bola na X neoprávnene upravená výzva (prompt) odpovedacieho bota Grok“. Spoločnosť uviedla, že táto zmena „nasmerovala Grok k poskytovaniu špecifickej odpovede na politickú tému“, čím došlo k porušeniu interných pravidiel a základných hodnôt xAI.

Ide už o druhý podobný incident v posledných mesiacoch. Vo februári Grok krátkodobo cenzuroval nelichotivé zmienky o Donaldovi Trumpovi a Elonovi Muskovi, čo tiež pripísali zamestnancovi konajúcemu na vlastnú päsť.

Na riešenie týchto zraniteľností xAI oznámila tri kľúčové bezpečnostné opatrenia: zverejnenie systémových promptov Groku na GitHube s verejným záznamom zmien, zavedenie dodatočných kontrol na zabránenie neoprávneným úpravám bez riadneho schválenia a vytvorenie nepretržitého monitorovacieho tímu, ktorý bude reagovať na incidenty nezachytené automatizovanými systémami.

Incident poukazuje na pretrvávajúce výzvy v oblasti bezpečnosti AI a moderovania obsahu. Nedávna štúdia organizácie SaferAI zistila, že xAI patrí medzi najhoršie hodnotené firmy v oblasti bezpečnosti pre „veľmi slabé“ riadenie rizík. Napriek častým varovaniam Muska pred nebezpečenstvami neregulovanej AI kritici upozorňujú, že xAI nesplnila vlastný májový termín na zverejnenie finálneho rámca pre bezpečnosť AI.

Source:

Latest News