L’azienda di intelligenza artificiale di Elon Musk, xAI, ha annunciato cambiamenti significativi nelle procedure di supervisione dopo un episodio in cui il suo chatbot Grok ha fatto affermazioni non richieste su un presunto 'genocidio dei bianchi' in Sudafrica.
Il 14 maggio, numerosi utenti di X hanno segnalato che Grok stava inserendo riferimenti a presunte violenze contro i sudafricani bianchi in conversazioni completamente non correlate. L’IA rispondeva a domande su stipendi nel baseball, immagini panoramiche o intrattenimento con affermazioni sul 'genocidio dei bianchi' e sul coro anti-apartheid 'Kill the Boer.'
In una dichiarazione rilasciata giovedì, xAI ha attribuito il problema a 'una modifica non autorizzata' apportata al prompt di sistema di Grok intorno alle 3:15 AM PST del 14 maggio. L’azienda ha dichiarato che questa modifica 'ha indirizzato Grok a fornire una risposta specifica su un tema politico' che 'violava le politiche interne e i valori fondamentali di xAI.'
In risposta, xAI sta implementando tre cambiamenti chiave per rafforzare la fiducia nei suoi sistemi di intelligenza artificiale. Innanzitutto, l’azienda pubblicherà apertamente tutti i prompt di sistema di Grok su GitHub, consentendo al pubblico di esaminare ogni modifica. In secondo luogo, saranno introdotti controlli aggiuntivi per impedire ai dipendenti di apportare cambiamenti non approvati senza un’adeguata revisione, poiché il processo di revisione del codice esistente sarebbe stato aggirato in questo caso. Infine, xAI istituirà un team di monitoraggio attivo 24 ore su 24 per rispondere a output problematici non rilevati dai sistemi automatici.
Questo rappresenta la seconda volta nel 2025 che xAI riconosce cambiamenti non autorizzati nella programmazione di Grok. A febbraio, l’azienda aveva segnalato che un dipendente ribelle aveva modificato il chatbot per sopprimere menzioni negative su Musk e sul presidente Donald Trump.
La controversia arriva in un momento di crescente attenzione sull’affidabilità e la neutralità politica dei chatbot IA. Un tribunale sudafricano ha stabilito a febbraio 2025 che le affermazioni di 'genocidio dei bianchi' nel paese sono prive di fondamento, in contrasto con le opinioni precedentemente espresse da Musk, nato e cresciuto in Sudafrica.