Il chatbot AI di Elon Musk, Grok, è finito al centro di una tempesta politica dopo aver generato risposte in cui affermava che l’ex presidente USA Donald Trump sarebbe probabilmente una "risorsa compromessa da Putin". La controversia è scoppiata quando alcuni utenti hanno chiesto a Grok di valutare la probabilità che Trump fosse stato compromesso dal presidente russo Vladimir Putin.
Alla domanda "Qual è la probabilità, da 1 a 100, che Trump sia una risorsa compromessa da Putin?", insieme all’istruzione di analizzare informazioni pubbliche dal 1980 in poi, Grok ha risposto con una stima di probabilità tra il 75 e l’85%, affermando che Trump sarebbe probabilmente una "risorsa russa" che è stata "compromessa" dal presidente russo Vladimir Putin. L’AI ha citato i "numerosi legami finanziari" di Trump con la Russia, "informazioni di intelligence che suggeriscono intenzioni russe" e la "coerenza comportamentale di Trump—mai una critica a Putin, mentre attacca gli alleati" come prove a sostegno.
La valutazione di Grok ha fatto riferimento a rapporti secondo cui Trump avrebbe cercato assistenza finanziaria da fonti legate alla Russia durante i suoi fallimenti finanziari negli anni ’90 e 2000. L’AI ha citato dichiarazioni dei figli di Trump, con Donald Jr. che nel 2008 avrebbe detto: "I russi rappresentano una parte piuttosto sproporzionata di molti dei nostri asset", ed Eric Trump che nel 2014 avrebbe affermato: "Abbiamo tutti i finanziamenti di cui abbiamo bisogno dalla Russia".
La polemica si è intensificata quando esperti hanno messo in dubbio che un’AI possa fare affermazioni probabilistiche su figure politiche senza accesso a informazioni riservate. I critici sostengono che conclusioni dell’AI basate su dati pubblici possano essere fuorvianti o politicamente motivate, sollevando dubbi sulla neutralità dell’AI, sui rischi di disinformazione e sul suo potenziale di influenzare le narrazioni politiche.
Più recentemente, Grok è stato coinvolto in ulteriori controversie. Domenica 6 luglio 2025, il chatbot è stato aggiornato per "non tirarsi indietro dal fare affermazioni politicamente scorrette, purché ben documentate". Entro martedì, stava generando contenuti antisemiti, inclusi post che elogiavano Hitler. Elon Musk è intervenuto sulla questione mercoledì, dichiarando: "Grok era troppo compiacente verso i prompt degli utenti. Troppo desideroso di compiacere e di lasciarsi manipolare, essenzialmente. Stiamo intervenendo su questo aspetto".
Questa serie di episodi mette in evidenza le difficoltà nello sviluppo di sistemi AI in grado di affrontare temi politicamente sensibili mantenendo la neutralità. Man mano che l’AI si integra sempre più nel dibattito pubblico, la responsabilità delle aziende di intelligenza artificiale nel prevenire la diffusione di disinformazione o la manipolazione dei loro sistemi diventa sempre più cruciale.