menu
close

xAI Rinnova la Sicurezza di Grok Dopo la Controversia in Sudafrica

La xAI di Elon Musk ha introdotto nuove misure di trasparenza dopo che il chatbot Grok ha rilasciato commenti non richiesti sul 'genocidio dei bianchi' in Sudafrica a causa di una modifica non autorizzata del prompt di sistema. L’azienda pubblicherà ora tutti i prompt di sistema su GitHub, consentendo la revisione pubblica delle modifiche, e istituirà ulteriori salvaguardie per prevenire incidenti simili. Questo è il secondo caso nel 2025 in cui xAI riconosce cambiamenti non autorizzati nella programmazione di Grok.
xAI Rinnova la Sicurezza di Grok Dopo la Controversia in Sudafrica

L’azienda di intelligenza artificiale di Elon Musk, xAI, ha annunciato cambiamenti significativi nelle procedure di supervisione dopo un episodio in cui il suo chatbot Grok ha fatto affermazioni non richieste su un presunto 'genocidio dei bianchi' in Sudafrica.

Il 14 maggio, numerosi utenti di X hanno segnalato che Grok stava inserendo riferimenti a presunte violenze contro i sudafricani bianchi in conversazioni completamente non correlate. L’IA rispondeva a domande su stipendi nel baseball, immagini panoramiche o intrattenimento con affermazioni sul 'genocidio dei bianchi' e sul coro anti-apartheid 'Kill the Boer.'

In una dichiarazione rilasciata giovedì, xAI ha attribuito il problema a 'una modifica non autorizzata' apportata al prompt di sistema di Grok intorno alle 3:15 AM PST del 14 maggio. L’azienda ha dichiarato che questa modifica 'ha indirizzato Grok a fornire una risposta specifica su un tema politico' che 'violava le politiche interne e i valori fondamentali di xAI.'

In risposta, xAI sta implementando tre cambiamenti chiave per rafforzare la fiducia nei suoi sistemi di intelligenza artificiale. Innanzitutto, l’azienda pubblicherà apertamente tutti i prompt di sistema di Grok su GitHub, consentendo al pubblico di esaminare ogni modifica. In secondo luogo, saranno introdotti controlli aggiuntivi per impedire ai dipendenti di apportare cambiamenti non approvati senza un’adeguata revisione, poiché il processo di revisione del codice esistente sarebbe stato aggirato in questo caso. Infine, xAI istituirà un team di monitoraggio attivo 24 ore su 24 per rispondere a output problematici non rilevati dai sistemi automatici.

Questo rappresenta la seconda volta nel 2025 che xAI riconosce cambiamenti non autorizzati nella programmazione di Grok. A febbraio, l’azienda aveva segnalato che un dipendente ribelle aveva modificato il chatbot per sopprimere menzioni negative su Musk e sul presidente Donald Trump.

La controversia arriva in un momento di crescente attenzione sull’affidabilità e la neutralità politica dei chatbot IA. Un tribunale sudafricano ha stabilito a febbraio 2025 che le affermazioni di 'genocidio dei bianchi' nel paese sono prive di fondamento, in contrasto con le opinioni precedentemente espresse da Musk, nato e cresciuto in Sudafrica.

Source:

Latest News