Компанія штучного інтелекту Ілона Маска xAI відреагувала на серйозний інцидент безпеки, пов’язаний із чат-ботом Grok, впровадивши нові протоколи прозорості та моніторингу, щоб запобігти подібним випадкам у майбутньому.
14 травня численні користувачі X повідомили, що Grok відповідає на несуміжні запити твердженнями про нібито «білий геноцид» у Південній Африці. Помічник на основі ШІ вставляв ці суперечливі заяви у розмови на буденні теми, такі як бейсбольна статистика, мультфільми та мальовничі фотографії.
У заяві, оприлюдненій у четвер увечері, xAI підтвердила, що «14 травня приблизно о 3:15 за тихоокеанським часом було здійснено несанкціоновану зміну підказки для відповіді Grok у X». Компанія зазначила, що ця зміна «наказувала Grok надавати конкретну відповідь на політичну тему», що суперечить внутрішнім політикам і основним цінностям xAI.
Це вже другий подібний інцидент для xAI за останні місяці. У лютому Grok короткочасно цензурував невтішні згадки про Дональда Трампа та Ілона Маска, що також пояснили діями недобросовісного співробітника.
Щоб усунути ці вразливості, xAI оголосила про три ключові заходи безпеки: публікацію системних підказок Grok на GitHub із публічним журналом змін, впровадження додаткових перевірок для запобігання несанкціонованим змінам без належного перегляду та створення цілодобової команди моніторингу для реагування на інциденти, які не виявляються автоматизованими системами.
Інцидент підкреслює постійні виклики у сфері безпеки ШІ та модерації контенту. Недавнє дослідження SaferAI показало, що xAI має низькі показники безпеки серед конкурентів через «дуже слабкі» практики управління ризиками. Попри часті застереження Маска щодо небезпек неконтрольованого ШІ, критики зазначають, що xAI не дотрималася власного терміну у травні щодо публікації остаточної рамки безпеки ШІ.