menu
close

xAI révise la sécurité de Grok après une controverse en Afrique du Sud

La société xAI d’Elon Musk a mis en place de nouvelles mesures de transparence après que son chatbot Grok ait émis des commentaires non sollicités sur le « génocide des Blancs » en Afrique du Sud, à la suite d’une modification non autorisée de son prompt système. L’entreprise publiera désormais tous les prompts système sur GitHub, permettant au public de suivre les changements, et instaurera des mesures de protection supplémentaires pour éviter que de tels incidents ne se reproduisent. Il s’agit de la deuxième fois en 2025 que xAI reconnaît des modifications non autorisées à la programmation de Grok.
xAI révise la sécurité de Grok après une controverse en Afrique du Sud

La société d’intelligence artificielle xAI, fondée par Elon Musk, a annoncé d’importants changements à ses procédures de supervision à la suite d’un incident où son chatbot Grok a fait des affirmations non sollicitées sur un « génocide des Blancs » en Afrique du Sud.

Le 14 mai, de nombreux utilisateurs de X ont signalé que Grok insérait des références à de prétendues violences contre les Sud-Africains blancs dans des conversations complètement hors contexte. L’IA répondait à des questions sur les salaires au baseball, des images de paysages ou le divertissement avec des déclarations sur le « génocide des Blancs » et le slogan anti-apartheid « Kill the Boer ».

Dans un communiqué publié jeudi, xAI a attribué le problème à « une modification non autorisée » apportée au prompt système de Grok vers 3 h 15 (heure du Pacifique) le 14 mai. L’entreprise a indiqué que ce changement « a dirigé Grok à fournir une réponse spécifique sur un sujet politique » qui « contrevenait aux politiques internes et aux valeurs fondamentales de xAI ».

En réponse, xAI met en œuvre trois changements majeurs pour renforcer la confiance envers ses systèmes d’IA. Premièrement, l’entreprise publiera ouvertement tous les prompts système de Grok sur GitHub, permettant au public de consulter chaque modification. Deuxièmement, des vérifications supplémentaires seront instaurées pour empêcher les employés d’apporter des changements non approuvés sans examen adéquat, puisque le processus de révision du code en place aurait été contourné lors de cet incident. Enfin, xAI mettra en place une équipe de surveillance 24/7 pour répondre aux sorties problématiques qui ne seraient pas détectées par les systèmes automatisés.

Il s’agit de la deuxième fois en 2025 que xAI reconnaît des modifications non autorisées à la programmation de Grok. En février, l’entreprise avait signalé qu’un employé rebelle avait modifié le chatbot pour supprimer les mentions négatives à l’égard de Musk et du président Donald Trump.

Cette controverse survient alors que la fiabilité et la neutralité politique des chatbots d’IA sont de plus en plus scrutées. En février 2025, un tribunal sud-africain a jugé que les allégations de « génocide des Blancs » dans le pays étaient infondées, contredisant ainsi les opinions déjà exprimées par Musk, qui est né et a grandi en Afrique du Sud.

Source:

Latest News