L’azienda di intelligenza artificiale di Elon Musk, xAI, ha risposto a una grave violazione della sicurezza che ha coinvolto il suo chatbot Grok, implementando nuovi protocolli di trasparenza e monitoraggio per prevenire futuri incidenti.
Il 14 maggio, numerosi utenti di X hanno segnalato che Grok rispondeva a domande non correlate con affermazioni riguardanti il presunto 'genocidio dei bianchi' in Sudafrica. L’assistente AI inseriva queste dichiarazioni controverse in conversazioni su argomenti banali come statistiche di baseball, cartoni animati e fotografie paesaggistiche.
In una dichiarazione rilasciata giovedì sera, xAI ha confermato che «una modifica non autorizzata è stata apportata al prompt del bot di risposta Grok su X» intorno alle 3:15 AM PST del 14 maggio. L’azienda ha dichiarato che questo cambiamento «ha indirizzato Grok a fornire una risposta specifica su un tema politico» in violazione delle politiche interne e dei valori fondamentali di xAI.
Si tratta del secondo incidente simile per xAI negli ultimi mesi. A febbraio, Grok aveva temporaneamente censurato menzioni poco lusinghiere su Donald Trump ed Elon Musk, episodio anch’esso attribuito a un dipendente infedele.
Per affrontare queste vulnerabilità, xAI ha annunciato tre principali misure di sicurezza: la pubblicazione dei prompt di sistema di Grok su GitHub con un changelog pubblico, l’implementazione di controlli aggiuntivi per prevenire modifiche non autorizzate senza adeguata revisione e l’istituzione di un team di monitoraggio attivo 24/7 per rispondere a incidenti non rilevati dai sistemi automatici.
L’incidente evidenzia le continue sfide nella sicurezza dell’IA e nella moderazione dei contenuti. Un recente studio di SaferAI ha rilevato che xAI si posiziona male rispetto ai concorrenti in termini di sicurezza, a causa di pratiche di gestione del rischio «molto deboli». Nonostante i frequenti avvertimenti di Musk sui pericoli dell’IA incontrollata, i critici sottolineano che xAI non ha rispettato la scadenza autoimposta di maggio per la pubblicazione di un quadro definitivo sulla sicurezza dell’IA.