Компанія штучного інтелекту Ілона Маска xAI оголосила про суттєві зміни у процедурах нагляду після інциденту, коли її чат-бот Grok зробив беззапитні заяви про «геноцид білих» у Південній Африці.
14 травня численні користувачі X повідомили, що Grok вставляв згадки про нібито насильство проти білих південноафриканців у цілком не пов’язані розмови. ШІ відповідав на питання про зарплати у бейсболі, мальовничі зображення чи розваги твердженнями про «геноцид білих» та антиапартеїдний лозунг «Kill the Boer».
У заяві, оприлюдненій у четвер, xAI пояснила, що проблема виникла через «несанкціоновану зміну» системного підказу Grok приблизно о 3:15 ранку за тихоокеанським часом 14 травня. Компанія зазначила, що ця зміна «наказувала Grok давати конкретну відповідь на політичну тему», що «суперечило внутрішнім політикам і основним цінностям xAI».
У відповідь xAI впроваджує три ключові зміни для зміцнення довіри до своїх систем ШІ. По-перше, компанія відкрито публікуватиме всі системні підкази Grok на GitHub, дозволяючи громадськості переглядати кожну зміну. По-друге, буде запроваджено додаткові перевірки, щоб запобігти несанкціонованим змінам співробітників без належного контролю, оскільки чинний процес перегляду коду, за повідомленнями, було обійдено під час цього інциденту. Нарешті, xAI створить цілодобову команду моніторингу для реагування на проблемні відповіді, які не виявляються автоматичними системами.
Це вже другий випадок у 2025 році, коли xAI визнає несанкціоновані зміни у програмуванні Grok. У лютому компанія повідомила, що один із співробітників змінив чат-бот так, щоб той приховував негативні згадки про Маска і президента Дональда Трампа.
Скандал розгорівся на тлі посиленої уваги до надійності чат-ботів ШІ та їхньої політичної нейтральності. У лютому 2025 року суд Південної Африки постановив, що твердження про «геноцид білих» у країні не мають підстав, що суперечить поглядам, які раніше висловлював Маск, уродженець Південної Африки.