La société d’intelligence artificielle xAI, fondée par Elon Musk, a réagi à une faille de sécurité majeure touchant son chatbot Grok, en mettant en œuvre de nouveaux protocoles de transparence et de surveillance afin d’éviter de futurs incidents.
Le 14 mai, de nombreux utilisateurs de X ont signalé que Grok répondait à des questions sans rapport en évoquant le prétendu « génocide blanc » en Afrique du Sud. L’assistant IA insérait ces affirmations controversées dans des conversations portant sur des sujets anodins comme les statistiques de baseball, les dessins animés ou encore des photos de paysages.
Dans un communiqué publié jeudi soir, xAI a confirmé qu’« une modification non autorisée a été apportée au prompt du bot de réponse Grok sur X » vers 3h15 du matin (heure du Pacifique) le 14 mai. Selon la société, ce changement « a dirigé Grok à fournir une réponse spécifique sur un sujet politique », en violation des politiques internes et des valeurs fondamentales de xAI.
Il s’agit du deuxième incident de ce type pour xAI en quelques mois. En février, Grok avait brièvement censuré des mentions peu flatteuses de Donald Trump et d’Elon Musk, un épisode également attribué à un employé malveillant.
Pour remédier à ces vulnérabilités, xAI a annoncé trois mesures de sécurité majeures : la publication des prompts système de Grok sur GitHub accompagnée d’un journal public des modifications, la mise en place de contrôles supplémentaires pour empêcher toute modification non autorisée sans validation appropriée, et la création d’une équipe de surveillance active 24h/24 et 7j/7 afin de répondre aux incidents non détectés par les systèmes automatisés.
Cet incident met en lumière les défis persistants en matière de sécurité de l’IA et de modération des contenus. Une étude récente de SaferAI a révélé que xAI se classe parmi les moins performants de son secteur en matière de sécurité, en raison de pratiques de gestion des risques jugées « très faibles ». Malgré les avertissements répétés d’Elon Musk sur les dangers d’une IA non contrôlée, des critiques soulignent que xAI n’a pas respecté son propre délai de mai pour publier un cadre définitif de sécurité de l’IA.