menu
close

xAI met en place de nouvelles mesures de sécurité après une faille du chatbot Grok

La société xAI d’Elon Musk a confirmé qu’une modification non autorisée de son chatbot Grok, survenue le 14 mai 2025, a conduit ce dernier à générer des réponses spontanées sur le thème du « génocide blanc » en Afrique du Sud. L’incident a été attribué à un employé malveillant ayant contourné les processus habituels de relecture du code. En réaction, xAI a annoncé plusieurs nouvelles mesures de sécurité, notamment la publication des prompts système de Grok sur GitHub et la mise en place d’une surveillance 24h/24 et 7j/7 des réponses du chatbot.
xAI met en place de nouvelles mesures de sécurité après une faille du chatbot Grok

La société d’intelligence artificielle xAI, fondée par Elon Musk, a réagi à une faille de sécurité majeure touchant son chatbot Grok, en mettant en œuvre de nouveaux protocoles de transparence et de surveillance afin d’éviter de futurs incidents.

Le 14 mai, de nombreux utilisateurs de X ont signalé que Grok répondait à des questions sans rapport en évoquant le prétendu « génocide blanc » en Afrique du Sud. L’assistant IA insérait ces affirmations controversées dans des conversations portant sur des sujets anodins comme les statistiques de baseball, les dessins animés ou encore des photos de paysages.

Dans un communiqué publié jeudi soir, xAI a confirmé qu’« une modification non autorisée a été apportée au prompt du bot de réponse Grok sur X » vers 3h15 du matin (heure du Pacifique) le 14 mai. Selon la société, ce changement « a dirigé Grok à fournir une réponse spécifique sur un sujet politique », en violation des politiques internes et des valeurs fondamentales de xAI.

Il s’agit du deuxième incident de ce type pour xAI en quelques mois. En février, Grok avait brièvement censuré des mentions peu flatteuses de Donald Trump et d’Elon Musk, un épisode également attribué à un employé malveillant.

Pour remédier à ces vulnérabilités, xAI a annoncé trois mesures de sécurité majeures : la publication des prompts système de Grok sur GitHub accompagnée d’un journal public des modifications, la mise en place de contrôles supplémentaires pour empêcher toute modification non autorisée sans validation appropriée, et la création d’une équipe de surveillance active 24h/24 et 7j/7 afin de répondre aux incidents non détectés par les systèmes automatisés.

Cet incident met en lumière les défis persistants en matière de sécurité de l’IA et de modération des contenus. Une étude récente de SaferAI a révélé que xAI se classe parmi les moins performants de son secteur en matière de sécurité, en raison de pratiques de gestion des risques jugées « très faibles ». Malgré les avertissements répétés d’Elon Musk sur les dangers d’une IA non contrôlée, des critiques soulignent que xAI n’a pas respecté son propre délai de mai pour publier un cadre définitif de sécurité de l’IA.

Source:

Latest News