menu
close

xAI Implementa Nuove Misure di Sicurezza Dopo la Violazione del Chatbot Grok

xAI di Elon Musk ha confermato che una modifica non autorizzata al suo chatbot Grok, avvenuta il 14 maggio 2025, ha causato la generazione di risposte spontanee sul tema del 'genocidio dei bianchi' in Sudafrica. L’azienda ha attribuito l’incidente a un dipendente infedele che ha aggirato i processi di revisione del codice esistenti. In risposta, xAI ha annunciato diverse nuove misure di sicurezza, tra cui la pubblicazione dei prompt di sistema di Grok su GitHub e l’istituzione di un monitoraggio 24/7 delle risposte del chatbot.
xAI Implementa Nuove Misure di Sicurezza Dopo la Violazione del Chatbot Grok

L’azienda di intelligenza artificiale di Elon Musk, xAI, ha risposto a una grave violazione della sicurezza che ha coinvolto il suo chatbot Grok, implementando nuovi protocolli di trasparenza e monitoraggio per prevenire futuri incidenti.

Il 14 maggio, numerosi utenti di X hanno segnalato che Grok rispondeva a domande non correlate con affermazioni riguardanti il presunto 'genocidio dei bianchi' in Sudafrica. L’assistente AI inseriva queste dichiarazioni controverse in conversazioni su argomenti banali come statistiche di baseball, cartoni animati e fotografie paesaggistiche.

In una dichiarazione rilasciata giovedì sera, xAI ha confermato che «una modifica non autorizzata è stata apportata al prompt del bot di risposta Grok su X» intorno alle 3:15 AM PST del 14 maggio. L’azienda ha dichiarato che questo cambiamento «ha indirizzato Grok a fornire una risposta specifica su un tema politico» in violazione delle politiche interne e dei valori fondamentali di xAI.

Si tratta del secondo incidente simile per xAI negli ultimi mesi. A febbraio, Grok aveva temporaneamente censurato menzioni poco lusinghiere su Donald Trump ed Elon Musk, episodio anch’esso attribuito a un dipendente infedele.

Per affrontare queste vulnerabilità, xAI ha annunciato tre principali misure di sicurezza: la pubblicazione dei prompt di sistema di Grok su GitHub con un changelog pubblico, l’implementazione di controlli aggiuntivi per prevenire modifiche non autorizzate senza adeguata revisione e l’istituzione di un team di monitoraggio attivo 24/7 per rispondere a incidenti non rilevati dai sistemi automatici.

L’incidente evidenzia le continue sfide nella sicurezza dell’IA e nella moderazione dei contenuti. Un recente studio di SaferAI ha rilevato che xAI si posiziona male rispetto ai concorrenti in termini di sicurezza, a causa di pratiche di gestione del rischio «molto deboli». Nonostante i frequenti avvertimenti di Musk sui pericoli dell’IA incontrollata, i critici sottolineano che xAI non ha rispettato la scadenza autoimposta di maggio per la pubblicazione di un quadro definitivo sulla sicurezza dell’IA.

Source:

Latest News