Компанията за изкуствен интелект на Илон Мъск – xAI, реагира на сериозен пробив в сигурността, свързан с чатбота Grok, като въведе нови протоколи за прозрачност и наблюдение с цел предотвратяване на бъдещи инциденти.
На 14 май множество потребители на X съобщиха, че Grok отговаря на несвързани въпроси с твърдения за предполагаем „бял геноцид“ в Южна Африка. AI асистентът вмъкваше тези противоречиви твърдения в разговори по обикновени теми като бейзболни статистики, анимационни филми и пейзажни снимки.
В изявление, публикувано в четвъртък вечерта, xAI потвърди, че „неоторизирана промяна е направена в подсказката на Grok response bot в X“ около 3:15 ч. сутринта по тихоокеанско време на 14 май. Компанията уточни, че тази промяна е „накарала Grok да даде конкретен отговор по политическа тема“, което е в противоречие с вътрешните политики и основните ценности на xAI.
Това е вторият подобен инцидент за xAI през последните месеци. През февруари Grok временно цензурираше нелицеприятни споменавания на Доналд Тръмп и Илон Мъск, като и тогава причината беше недобросъвестен служител.
За да адресира тези уязвимости, xAI обяви три основни мерки за сигурност: публикуване на системните подсказки на Grok в GitHub с публичен changelog, въвеждане на допълнителни проверки за предотвратяване на неоторизирани промени без надлежен преглед и създаване на екип за 24/7 мониторинг, който да реагира на инциденти, пропуснати от автоматизираните системи.
Инцидентът подчертава продължаващите предизвикателства в сигурността и модерирането на съдържание при AI. Последно проучване на SaferAI установи, че xAI се нарежда на едно от последните места по безопасност сред конкурентите си поради „много слаби“ практики за управление на риска. Въпреки честите предупреждения на Мъск за опасностите от неконтролиран AI, критиците отбелязват, че xAI е пропуснала самоналожения срок през май за публикуване на финализирана рамка за безопасност на AI.