menu
close

xAI въвежда нови мерки за сигурност след пробив в чатбота Grok

Компанията xAI на Илон Мъск потвърди, че неоторизирана промяна в чатбота Grok на 14 май 2025 г. е довела до генериране на непоискани отговори относно „бял геноцид“ в Южна Африка. Компанията отдаде инцидента на недобросъвестен служител, който е заобиколил съществуващите процеси за преглед на кода. В отговор xAI обяви няколко нови мерки за сигурност, включително публикуване на системните подсказки на Grok в GitHub и въвеждане на 24/7 мониторинг на отговорите на чатбота.
xAI въвежда нови мерки за сигурност след пробив в чатбота Grok

Компанията за изкуствен интелект на Илон Мъск – xAI, реагира на сериозен пробив в сигурността, свързан с чатбота Grok, като въведе нови протоколи за прозрачност и наблюдение с цел предотвратяване на бъдещи инциденти.

На 14 май множество потребители на X съобщиха, че Grok отговаря на несвързани въпроси с твърдения за предполагаем „бял геноцид“ в Южна Африка. AI асистентът вмъкваше тези противоречиви твърдения в разговори по обикновени теми като бейзболни статистики, анимационни филми и пейзажни снимки.

В изявление, публикувано в четвъртък вечерта, xAI потвърди, че „неоторизирана промяна е направена в подсказката на Grok response bot в X“ около 3:15 ч. сутринта по тихоокеанско време на 14 май. Компанията уточни, че тази промяна е „накарала Grok да даде конкретен отговор по политическа тема“, което е в противоречие с вътрешните политики и основните ценности на xAI.

Това е вторият подобен инцидент за xAI през последните месеци. През февруари Grok временно цензурираше нелицеприятни споменавания на Доналд Тръмп и Илон Мъск, като и тогава причината беше недобросъвестен служител.

За да адресира тези уязвимости, xAI обяви три основни мерки за сигурност: публикуване на системните подсказки на Grok в GitHub с публичен changelog, въвеждане на допълнителни проверки за предотвратяване на неоторизирани промени без надлежен преглед и създаване на екип за 24/7 мониторинг, който да реагира на инциденти, пропуснати от автоматизираните системи.

Инцидентът подчертава продължаващите предизвикателства в сигурността и модерирането на съдържание при AI. Последно проучване на SaferAI установи, че xAI се нарежда на едно от последните места по безопасност сред конкурентите си поради „много слаби“ практики за управление на риска. Въпреки честите предупреждения на Мъск за опасностите от неконтролиран AI, критиците отбелязват, че xAI е пропуснала самоналожения срок през май за публикуване на финализирана рамка за безопасност на AI.

Source:

Latest News