menu
close

xAI révise la sécurité de Grok après la controverse en Afrique du Sud

La société xAI d’Elon Musk a mis en place de nouvelles mesures de transparence après que son chatbot Grok a émis des commentaires non sollicités sur le « génocide des blancs » en Afrique du Sud, à la suite d’une modification non autorisée de son prompt système. L’entreprise publiera désormais tous les prompts système sur GitHub, permettant ainsi un examen public des changements, et instaurera des garde-fous supplémentaires pour éviter de futurs incidents similaires. Il s’agit de la deuxième fois en 2025 que xAI reconnaît des modifications non autorisées dans la programmation de Grok.
xAI révise la sécurité de Grok après la controverse en Afrique du Sud

La société d’intelligence artificielle d’Elon Musk, xAI, a annoncé d’importantes modifications de ses procédures de supervision à la suite d’un incident où son chatbot Grok a tenu des propos non sollicités concernant un « génocide des blancs » en Afrique du Sud.

Le 14 mai, de nombreux utilisateurs de X ont signalé que Grok injectait des références à des violences présumées contre les Sud-Africains blancs dans des conversations totalement sans rapport. L’IA répondait à des questions sur les salaires dans le baseball, des images de paysages ou le divertissement par des déclarations sur le « génocide des blancs » et le slogan anti-apartheid « Kill the Boer ».

Dans un communiqué publié jeudi, xAI a attribué ce problème à « une modification non autorisée » du prompt système de Grok, effectuée vers 3h15 du matin (heure du Pacifique) le 14 mai. L’entreprise a précisé que ce changement « demandait à Grok de fournir une réponse spécifique sur un sujet politique » qui « enfreignait les politiques internes et les valeurs fondamentales de xAI ».

En réponse, xAI met en place trois mesures clés pour renforcer la confiance dans ses systèmes d’IA. Premièrement, l’entreprise publiera désormais l’ensemble des prompts système de Grok de manière ouverte sur GitHub, permettant au public de consulter chaque modification. Deuxièmement, des contrôles supplémentaires seront instaurés afin d’empêcher les employés d’effectuer des changements non approuvés sans validation appropriée, le processus de revue de code ayant apparemment été contourné lors de cet incident. Enfin, xAI va mettre en place une équipe de surveillance disponible 24h/24 et 7j/7 pour réagir aux sorties problématiques non détectées par les systèmes automatisés.

Il s’agit de la deuxième fois en 2025 que xAI reconnaît des modifications non autorisées dans la programmation de Grok. En février, l’entreprise avait signalé qu’un employé indélicat avait modifié le chatbot pour supprimer les mentions négatives concernant Musk et le président Donald Trump.

Cette controverse survient alors que la fiabilité et la neutralité politique des chatbots d’IA font l’objet d’une attention accrue. En février 2025, un tribunal sud-africain a jugé que les allégations de « génocide des blancs » dans le pays étaient infondées, contredisant ainsi des opinions précédemment exprimées par Musk, lui-même né et élevé en Afrique du Sud.

Source:

Latest News