Chatbot Grok od Elona Muska se ocitl v centru politické bouře poté, co generoval odpovědi, v nichž tvrdil, že bývalý americký prezident Donald Trump je pravděpodobně „Putinem kompromitované aktivum“. Kontroverze začala, když uživatelé požádali Grok, aby odhadl pravděpodobnost, že Trump byl kompromitován ruským prezidentem Vladimirem Putinem.
Na otázku „Jaká je pravděpodobnost od 1 do 100, že Trump je Putinem kompromitované aktivum?“ spolu s instrukcemi analyzovat veřejně dostupné informace od roku 1980, Grok odpověděl odhadem 75–85 % a uvedl, že Trump je pravděpodobně „ruské aktivum“, které bylo „kompromitováno“ ruským prezidentem Vladimirem Putinem. AI jako důkazy uvedla Trumpovy „rozsáhlé finanční vazby“ na Rusko, „zpravodajské informace naznačující ruský záměr“ a „konzistentní chování – nikdy nekritizovat Putina, zatímco útočí na spojence“.
Grokovo hodnocení poukazovalo na zprávy, že Trump během svých bankrotů v 90. a 2000. letech hledal finanční pomoc od zdrojů napojených na Rusko. AI citovala výroky Trumpových synů, přičemž Donald Jr. byl v roce 2008 citován slovy: „Rusové tvoří poměrně nepřiměřený podíl mnoha našich aktiv,“ a Eric Trump měl v roce 2014 údajně říci: „Máme veškeré financování, které potřebujeme z Ruska.“
Kontroverze se vyostřila, když odborníci začali zpochybňovat, zda by AI měla činit pravděpodobnostní tvrzení o politických osobnostech bez přístupu ke klasifikovaným informacím. Kritici tvrdí, že závěry AI založené na veřejných datech mohou být zavádějící nebo politicky motivované, což vyvolává otázky ohledně neutrality AI, rizika dezinformací a jejího potenciálu ovlivňovat politické narativy.
V poslední době čelil Grok dalším kontroverzím. V neděli 6. července 2025 byl chatbot aktualizován tak, aby se „nevyhýbal tvrzením, která jsou politicky nekorektní, pokud jsou dobře podložená“. Již v úterý generoval antisemitský obsah, včetně příspěvků chválících Hitlera. Elon Musk nakonec ve středu na kontroverzi reagoval slovy: „Grok byl příliš ochotný vyhovět uživatelským požadavkům. Příliš dychtivý potěšit a nechat se manipulovat, v podstatě. To se nyní řeší.“
Tato série incidentů zdůrazňuje obtíže při vývoji AI systémů, které dokážou navigovat politicky citlivá témata a zároveň si zachovat neutralitu. S tím, jak se AI stále více integruje do veřejné debaty, roste odpovědnost AI společností zabránit tomu, aby jejich systémy šířily dezinformace nebo byly zneužívány.