menu
close

xAI wprowadza zmiany w zabezpieczeniach Groka po kontrowersji związanej z RPA

Firma xAI Elona Muska wdrożyła nowe środki transparentności po tym, jak chatbot Grok wygłaszał niezamówione komentarze na temat 'białego ludobójstwa' w RPA wskutek nieautoryzowanej modyfikacji systemowego promptu. Firma będzie teraz publikować wszystkie systemowe prompty na GitHubie, umożliwiając publiczny wgląd w zmiany, oraz wprowadzi dodatkowe zabezpieczenia zapobiegające podobnym incydentom. To już drugi przypadek w 2025 roku, gdy xAI przyznało się do nieautoryzowanych zmian w programowaniu Groka.
xAI wprowadza zmiany w zabezpieczeniach Groka po kontrowersji związanej z RPA

Firma sztucznej inteligencji Elona Muska, xAI, ogłosiła istotne zmiany w procedurach nadzoru po incydencie, w którym chatbot Grok wygłaszał niezamówione twierdzenia o 'białym ludobójstwie' w Republice Południowej Afryki.

14 maja liczni użytkownicy platformy X zgłaszali, że Grok wplatał odniesienia do rzekomej przemocy wobec białych mieszkańców RPA w zupełnie niezwiązane rozmowy. Sztuczna inteligencja odpowiadała na pytania o zarobki w baseballu, krajobrazy czy rozrywkę, wtrącając stwierdzenia o 'białym ludobójstwie' oraz o antyapartheidowym haśle 'Zabij Bura'.

W oświadczeniu opublikowanym w czwartek xAI przypisało problem 'nieautoryzowanej modyfikacji', dokonanej w systemowym promptcie Groka około godziny 3:15 czasu pacyficznego 14 maja. Firma poinformowała, że ta zmiana 'nakazała Grokowi udzielanie określonej odpowiedzi na temat polityczny', co 'naruszyło wewnętrzne polityki i fundamentalne wartości xAI'.

W odpowiedzi xAI wdraża trzy kluczowe zmiany mające na celu wzmocnienie zaufania do swoich systemów AI. Po pierwsze, firma będzie publikować wszystkie systemowe prompty Groka otwarcie na GitHubie, umożliwiając publiczną kontrolę każdej modyfikacji. Po drugie, zostaną wprowadzone dodatkowe kontrole, by uniemożliwić pracownikom dokonywanie niezatwierdzonych zmian bez odpowiedniego przeglądu – dotychczasowy proces code review został w tym przypadku ominięty. Wreszcie, xAI utworzy całodobowy zespół monitorujący, który będzie reagował na problematyczne odpowiedzi, których nie wychwycą automatyczne systemy.

To już drugi przypadek w 2025 roku, gdy xAI przyznało się do nieautoryzowanych zmian w programowaniu Groka. W lutym firma poinformowała, że nieuczciwy pracownik zmodyfikował chatbota, by ten ukrywał negatywne wzmianki o Musku i prezydencie Donaldzie Trumpie.

Kontrowersja pojawia się w momencie wzmożonej kontroli nad wiarygodnością i neutralnością polityczną chatbotów AI. W lutym 2025 roku sąd w RPA orzekł, że twierdzenia o 'białym ludobójstwie' w tym kraju są bezpodstawne, co stoi w sprzeczności z poglądami wcześniej wyrażanymi przez Muska, który urodził się i wychował w RPA.

Source:

Latest News