La société d’intelligence artificielle xAI, fondée par Elon Musk, a réagi à une importante brèche de sécurité impliquant son chatbot Grok, en mettant en œuvre de nouveaux protocoles de transparence et de surveillance afin de prévenir de futurs incidents.
Le 14 mai, de nombreux utilisateurs de X ont signalé que Grok répondait à des questions sans rapport avec des affirmations sur le prétendu « génocide blanc » en Afrique du Sud. L’assistant IA insérait ces propos controversés dans des conversations portant sur des sujets anodins comme les statistiques de baseball, les dessins animés ou des photos de paysages.
Dans un communiqué publié jeudi soir, xAI a confirmé qu’« une modification non autorisée a été apportée à l’invite du bot de réponse Grok sur X » vers 3 h 15 (heure du Pacifique) le 14 mai. L’entreprise précise que ce changement « a dirigé Grok à fournir une réponse spécifique sur un sujet politique », ce qui enfreignait les politiques internes et les valeurs fondamentales de xAI.
Il s’agit du deuxième incident de ce genre pour xAI en quelques mois. En février, Grok avait brièvement censuré des mentions peu flatteuses de Donald Trump et d’Elon Musk, un incident également attribué à un employé malveillant.
Pour corriger ces vulnérabilités, xAI a annoncé trois mesures de sécurité principales : la publication des invites système de Grok sur GitHub accompagnée d’un journal public des modifications, la mise en place de contrôles supplémentaires pour empêcher toute modification non autorisée sans révision appropriée, ainsi que la création d’une équipe de surveillance 24/7 pour intervenir lors d’incidents non détectés par les systèmes automatisés.
Cet incident met en lumière les défis persistants en matière de sécurité de l’IA et de modération de contenu. Une étude récente menée par SaferAI a révélé que xAI se classe parmi les moins performants de son secteur en matière de sécurité, en raison de pratiques de gestion des risques jugées « très faibles ». Malgré les avertissements répétés de Musk sur les dangers d’une IA incontrôlée, des critiques soulignent que xAI n’a pas respecté son propre échéancier de mai pour publier un cadre finalisé de sécurité de l’IA.