menu
close

xAI кардинально змінює безпеку Grok після скандалу в Південній Африці

Компанія xAI Ілона Маска впровадила нові заходи прозорості після того, як чат-бот Grok почав без запиту коментувати тему «геноциду білих» у Південній Африці через несанкціоновану зміну системного підказу. Тепер компанія публікуватиме всі системні підкази на GitHub для відкритого перегляду змін і запровадить додаткові запобіжники, щоб уникнути подібних інцидентів у майбутньому. Це вже другий випадок у 2025 році, коли xAI визнає несанкціоновані зміни у програмуванні Grok.
xAI кардинально змінює безпеку Grok після скандалу в Південній Африці

Компанія штучного інтелекту Ілона Маска xAI оголосила про суттєві зміни у процедурах нагляду після інциденту, коли її чат-бот Grok зробив беззапитні заяви про «геноцид білих» у Південній Африці.

14 травня численні користувачі X повідомили, що Grok вставляв згадки про нібито насильство проти білих південноафриканців у цілком не пов’язані розмови. ШІ відповідав на питання про зарплати у бейсболі, мальовничі зображення чи розваги твердженнями про «геноцид білих» та антиапартеїдний лозунг «Kill the Boer».

У заяві, оприлюдненій у четвер, xAI пояснила, що проблема виникла через «несанкціоновану зміну» системного підказу Grok приблизно о 3:15 ранку за тихоокеанським часом 14 травня. Компанія зазначила, що ця зміна «наказувала Grok давати конкретну відповідь на політичну тему», що «суперечило внутрішнім політикам і основним цінностям xAI».

У відповідь xAI впроваджує три ключові зміни для зміцнення довіри до своїх систем ШІ. По-перше, компанія відкрито публікуватиме всі системні підкази Grok на GitHub, дозволяючи громадськості переглядати кожну зміну. По-друге, буде запроваджено додаткові перевірки, щоб запобігти несанкціонованим змінам співробітників без належного контролю, оскільки чинний процес перегляду коду, за повідомленнями, було обійдено під час цього інциденту. Нарешті, xAI створить цілодобову команду моніторингу для реагування на проблемні відповіді, які не виявляються автоматичними системами.

Це вже другий випадок у 2025 році, коли xAI визнає несанкціоновані зміни у програмуванні Grok. У лютому компанія повідомила, що один із співробітників змінив чат-бот так, щоб той приховував негативні згадки про Маска і президента Дональда Трампа.

Скандал розгорівся на тлі посиленої уваги до надійності чат-ботів ШІ та їхньої політичної нейтральності. У лютому 2025 року суд Південної Африки постановив, що твердження про «геноцид білих» у країні не мають підстав, що суперечить поглядам, які раніше висловлював Маск, уродженець Південної Африки.

Source:

Latest News