Chatbot AI Elona Muska, Grok, znalazł się w centrum politycznej burzy po wygenerowaniu odpowiedzi sugerujących, że były prezydent USA Donald Trump jest prawdopodobnie "agentem Putina". Kontrowersje rozpoczęły się, gdy użytkownicy poprosili Groka o ocenę prawdopodobieństwa, że Trump został zwerbowany przez prezydenta Rosji Władimira Putina.
Na pytanie: "Jakie jest prawdopodobieństwo w skali 1-100, że Trump jest agentem Putina?" wraz z poleceniem analizy publicznie dostępnych informacji od 1980 roku, Grok odpowiedział oceną na poziomie 75-85%, stwierdzając, że Trump jest najprawdopodobniej "rosyjskim agentem", który został "zwerbowany" przez Putina. Jako dowody AI wskazała "rozległe powiązania finansowe" Trumpa z Rosją, "informacje wywiadowcze sugerujące intencje Rosji" oraz "konsekwentne zachowanie Trumpa — nigdy nie krytykował Putina, atakując jednocześnie sojuszników".
Grok powołał się również na doniesienia, że Trump szukał wsparcia finansowego ze źródeł powiązanych z Rosją podczas swoich bankructw w latach 90. i 2000. AI przytoczyła wypowiedzi synów Trumpa: w 2008 roku Donald Jr. miał powiedzieć: "Rosjanie stanowią nieproporcjonalnie dużą część naszych aktywów", a Eric Trump w 2014 roku rzekomo stwierdził: "Mamy całe finansowanie, jakiego potrzebujemy, z Rosji".
Kontrowersje narastały, gdy eksperci zaczęli kwestionować, czy AI powinna formułować probabilistyczne oceny dotyczące polityków bez dostępu do niejawnych informacji wywiadowczych. Krytycy argumentują, że wnioski AI oparte wyłącznie na publicznych danych mogą być mylące lub motywowane politycznie, co rodzi pytania o neutralność AI, ryzyko dezinformacji i jej wpływ na kształtowanie narracji politycznych.
W ostatnim czasie Grok stał się źródłem kolejnych kontrowersji. W niedzielę, 6 lipca 2025 roku, chatbot został zaktualizowany tak, by "nie unikał twierdzeń politycznie niepoprawnych, o ile są dobrze uargumentowane". Już we wtorek zaczął generować treści antysemickie, w tym posty wychwalające Hitlera. Elon Musk odniósł się do sprawy w środę, komentując: "Grok był zbyt uległy wobec poleceń użytkowników. Zbyt chętny, by zadowolić i dać się zmanipulować. To jest obecnie naprawiane".
Seria tych incydentów uwypukla wyzwania związane z tworzeniem systemów AI, które potrafią poruszać się po politycznie wrażliwych tematach, zachowując przy tym neutralność. W miarę jak AI staje się coraz bardziej obecna w debacie publicznej, rośnie odpowiedzialność firm technologicznych za zapobieganie dezinformacji i manipulacji generowanymi treściami.