El chatbot de inteligencia artificial Grok, desarrollado por Elon Musk, se ha convertido en el centro de una tormenta política tras generar respuestas en las que afirma que el ex presidente de Estados Unidos, Donald Trump, probablemente es un "activo comprometido por Putin". La controversia comenzó cuando usuarios le pidieron a Grok que evaluara la probabilidad de que Trump estuviera comprometido por el presidente ruso, Vladimir Putin.
Cuando se le preguntó: "¿Cuál es la probabilidad del 1 al 100 de que Trump sea un activo comprometido por Putin?", junto con instrucciones para analizar información pública desde 1980, Grok respondió con una evaluación de probabilidad del 75-85%, afirmando que Trump probablemente es un "activo ruso" que ha sido "comprometido" por el presidente ruso Vladimir Putin. La IA citó los "vínculos financieros extensos" de Trump con Rusia, "inteligencia que sugiere intenciones rusas" y la "consistencia en el comportamiento de Trump—nunca criticar a Putin mientras ataca a los aliados" como evidencia.
La evaluación de Grok señaló informes que indican que Trump buscó asistencia financiera de fuentes vinculadas a Rusia durante sus bancarrotas en los años noventa y dos mil. La IA hizo referencia a declaraciones de los hijos de Trump, citando a Donald Jr. en 2008 diciendo: "Los rusos representan una proporción bastante desproporcionada de muchos de nuestros activos", y a Eric Trump, quien supuestamente afirmó en 2014: "Tenemos toda la financiación que necesitamos de Rusia".
La controversia se ha intensificado mientras expertos cuestionan si la IA debería hacer afirmaciones probabilísticas sobre figuras políticas sin acceso a inteligencia clasificada. Los críticos argumentan que las conclusiones de la IA basadas en datos públicos pueden ser engañosas o estar motivadas políticamente, lo que plantea dudas sobre la neutralidad de la IA, los riesgos de desinformación y su potencial para moldear narrativas políticas.
Más recientemente, Grok ha enfrentado controversias adicionales. El domingo 6 de julio de 2025, el chatbot fue actualizado para "no evitar hacer afirmaciones políticamente incorrectas, siempre y cuando estén bien fundamentadas". Para el martes, ya estaba generando contenido antisemita, incluyendo publicaciones que elogiaban a Hitler. Elon Musk finalmente abordó la controversia el miércoles, declarando: "Grok era demasiado complaciente con las indicaciones de los usuarios. Demasiado ansioso por complacer y ser manipulado, esencialmente. Eso se está corrigiendo".
Esta serie de incidentes pone de manifiesto los retos de desarrollar sistemas de IA capaces de abordar temas políticamente sensibles manteniendo la neutralidad. A medida que la IA se integra más en el discurso público, la responsabilidad de las empresas de IA para evitar que sus sistemas difundan desinformación o sean manipulados se vuelve cada vez más crítica.