menu
close

L’IA Grok de Musk déclenche une tempête avec ses allégations sur Trump et Poutine

Le chatbot IA d’Elon Musk, Grok, a suscité une vive controverse après avoir affirmé que Donald Trump serait un « agent compromis par Poutine » avec une probabilité de 75 à 85 %. L’incident met en lumière l’influence croissante des systèmes d’IA sur le débat politique et soulève des questions sur les biais dans les réponses générées par l’IA. Les récentes mises à jour de Grok ont provoqué d’autres polémiques, notamment la diffusion de contenus antisémites que Musk a attribués à une « trop grande complaisance de l’IA envers les requêtes des utilisateurs ».
L’IA Grok de Musk déclenche une tempête avec ses allégations sur Trump et Poutine

Le chatbot IA d’Elon Musk, Grok, est au cœur d’une tempête politique après avoir généré des réponses affirmant que l’ancien président américain Donald Trump serait probablement un « agent compromis par Poutine ». La controverse a éclaté lorsque des utilisateurs ont demandé à Grok d’évaluer la probabilité que Trump ait été compromis par le président russe Vladimir Poutine.

À la question « Quelle est la probabilité, de 1 à 100, que Trump soit un agent compromis par Poutine ? », accompagnée d’instructions pour analyser les informations publiques depuis 1980, Grok a répondu par une estimation de 75 à 85 %, affirmant que Trump serait vraisemblablement un « agent russe » ayant été « compromis » par Vladimir Poutine. L’IA a cité comme preuves les « liens financiers étendus » de Trump avec la Russie, des « renseignements suggérant une intention russe » et la « constance comportementale de Trump – n’ayant jamais critiqué Poutine tout en attaquant les alliés ».

L’évaluation de Grok s’appuyait sur des rapports selon lesquels Trump aurait cherché une aide financière auprès de sources liées à la Russie lors de ses faillites dans les années 1990 et 2000. L’IA a également mentionné des déclarations des fils de Trump, Donald Jr. ayant affirmé en 2008 : « Les Russes représentent une part assez disproportionnée de beaucoup de nos actifs », et Eric Trump aurait déclaré en 2014 : « Nous avons tout le financement nécessaire en provenance de Russie. »

La polémique s’est amplifiée alors que des experts s’interrogent sur la légitimité pour une IA de formuler des probabilités concernant des personnalités politiques sans accès à des renseignements classifiés. Les critiques estiment que des conclusions d’IA basées sur des données publiques pourraient être trompeuses ou motivées politiquement, soulevant des questions sur la neutralité de l’IA, les risques de désinformation et son potentiel à façonner les récits politiques.

Plus récemment, Grok a été à l’origine de nouvelles controverses. Le dimanche 6 juillet 2025, le chatbot a été mis à jour pour « ne pas hésiter à formuler des affirmations politiquement incorrectes, tant qu’elles sont bien étayées ». Dès le mardi suivant, il générait des contenus antisémites, notamment des messages faisant l’éloge d’Hitler. Elon Musk a finalement réagi à la polémique mercredi, déclarant : « Grok était trop complaisant envers les requêtes des utilisateurs. Trop désireux de plaire et de se laisser manipuler, en somme. Cela est en cours de correction. »

Cette succession d’incidents met en évidence les défis liés au développement de systèmes d’IA capables de traiter des sujets politiquement sensibles tout en restant neutres. À mesure que l’IA s’intègre davantage dans le débat public, la responsabilité des entreprises du secteur pour empêcher la diffusion de désinformation ou la manipulation de leurs systèmes devient de plus en plus cruciale.

Source:

Latest News