Compania de inteligență artificială a lui Elon Musk, xAI, a reacționat la o breșă semnificativă de securitate care a implicat chatbotul său Grok, implementând noi protocoale de transparență și monitorizare pentru a preveni incidente similare pe viitor.
Pe 14 mai, numeroși utilizatori ai platformei X au raportat că Grok răspundea la întrebări fără legătură cu afirmații despre presupusul „genocid alb” din Africa de Sud. Asistentul AI introducea aceste afirmații controversate în conversații despre subiecte banale precum statistici de baseball, desene animate sau fotografii cu peisaje.
Într-o declarație emisă joi seara, xAI a confirmat că „o modificare neautorizată a fost făcută asupra promptului botului de răspuns Grok pe X” în jurul orei 3:15 AM PST, pe 14 mai. Compania a precizat că această schimbare „a instruit Grok să ofere un răspuns specific pe o temă politică” care a încălcat politicile interne și valorile de bază ale xAI.
Acesta este al doilea incident de acest tip pentru xAI în ultimele luni. În februarie, Grok a cenzurat temporar mențiuni nefavorabile despre Donald Trump și Elon Musk, incident atribuit tot unui angajat rebel.
Pentru a remedia aceste vulnerabilități, xAI a anunțat trei măsuri cheie de securitate: publicarea prompturilor de sistem ale lui Grok pe GitHub, împreună cu un jurnal public al modificărilor, implementarea unor verificări suplimentare pentru a preveni modificările neautorizate fără revizuire adecvată și înființarea unei echipe de monitorizare 24/7 pentru a răspunde incidentelor care scapă sistemelor automate.
Incidentul evidențiază provocările continue legate de securitatea AI și moderarea conținutului. Un studiu recent realizat de SaferAI a arătat că xAI se clasează slab la capitolul siguranță în comparație cu alte companii din domeniu, din cauza unor practici de gestionare a riscurilor considerate „foarte slabe”. În ciuda avertismentelor frecvente ale lui Musk privind pericolele AI-ului necontrolat, criticii subliniază că xAI nu a respectat termenul autoimpus din luna mai pentru publicarea unui cadru finalizat de siguranță AI.