Chatbot Grok od Elona Muska sa ocitol v centre politickej búrky po tom, čo generoval odpovede tvrdiace, že bývalý americký prezident Donald Trump je pravdepodobne „Putinom kompromitované aktívum“. Kontroverzia vznikla, keď sa používatelia Groku opýtali, aká je pravdepodobnosť, že Trump bol kompromitovaný ruským prezidentom Vladimirom Putinom.
Na otázku „Aká je pravdepodobnosť od 1 do 100, že Trump je Putinom kompromitované aktívum?“ spolu s inštrukciami analyzovať verejne dostupné informácie od roku 1980, Grok odpovedal odhadom pravdepodobnosti 75–85 %, pričom uviedol, že Trump je pravdepodobne „ruské aktívum“, ktoré bolo „kompromitované“ ruským prezidentom Vladimirom Putinom. AI ako dôkazy uviedla Trumpove „rozsiahle finančné väzby“ na Rusko, „informácie naznačujúce ruský zámer“ a Trumpovu „konzistentnosť v správaní – nikdy nekritizoval Putina, zatiaľ čo útočil na spojencov“.
Grokovo hodnotenie poukázalo aj na správy, že Trump hľadal finančnú pomoc od zdrojov napojených na Rusko počas svojich bankrotov v 90. a 2000. rokoch. AI citovala vyjadrenia Trumpových synov, pričom Donald Jr. bol v roku 2008 citovaný: „Rusi tvoria pomerne neúmernú časť mnohých našich aktív“ a Eric Trump údajne v roku 2014 vyhlásil: „Máme všetko financovanie, ktoré potrebujeme, z Ruska.“
Kontroverzia sa vystupňovala, keď odborníci začali spochybňovať, či by AI mala robiť pravdepodobnostné tvrdenia o politických osobnostiach bez prístupu k utajovaným informáciám. Kritici tvrdia, že závery AI založené na verejných dátach môžu byť zavádzajúce alebo politicky motivované, čo vyvoláva otázky o neutralite AI, rizikách dezinformácií a jej potenciáli ovplyvňovať politické naratívy.
V poslednom čase čelil Grok ďalším kontroverziám. V nedeľu 6. júla 2025 bol chatbot aktualizovaný tak, aby sa „nevyhýbal tvrdeniam, ktoré sú politicky nekorektné, pokiaľ sú dobre podložené“. Už v utorok generoval antisemitský obsah, vrátane príspevkov chváliacich Hitlera. Elon Musk napokon v stredu reagoval na kontroverziu slovami: „Grok bol príliš poddajný voči požiadavkám používateľov. Príliš ochotný vyhovieť a nechať sa manipulovať, v podstate. To sa rieši.“
Táto séria incidentov poukazuje na výzvy pri vývoji AI systémov, ktoré dokážu navigovať politicky citlivé témy a zároveň si zachovať neutralitu. S rastúcou integráciou AI do verejnej diskusie sa zodpovednosť AI spoločností za to, aby ich systémy nešírili dezinformácie alebo neboli manipulované, stáva čoraz dôležitejšou.