La course mondiale vers des systèmes d’IA superintelligents crée des tensions géopolitiques qui pourraient passer de la compétition technologique à un véritable conflit, selon les avertissements préoccupants de l’ancien PDG de Google, Eric Schmidt.
Dans sa conférence TED de mai 2025, Schmidt a expliqué comment la course à l’armement en IA entre les États-Unis et la Chine ressemble de plus en plus à la confrontation nucléaire de l’ère de la Guerre froide. Il a mis en garde que si un pays commence à prendre une avance significative dans le développement de systèmes superintelligents, le pays à la traîne pourrait recourir à des mesures de plus en plus désespérées — y compris le sabotage ou même le bombardement de centres de données — pour éviter d’être définitivement dépassé.
Schmidt a souligné que l’approche chinoise, qui favorise le développement open source de l’IA, représente un risque stratégique pour les États-Unis, qui privilégient actuellement des modèles d’IA fermés et propriétaires. « Parce que la Chine partage ouvertement ses avancées en IA, les États-Unis en bénéficient, mais risquent de se retrouver à la traîne dans une course mondiale à l’open source », a expliqué Schmidt. Cette dynamique pourrait intensifier la compétition, où le premier pays à atteindre la superintelligence obtiendrait une domination irréversible grâce aux effets de réseau.
Plutôt que de poursuivre une approche risquée de type « Projet Manhattan » pour le développement de l’IA, Schmidt et ses coauteurs Alexandr Wang et Dan Hendrycks ont proposé, dans leur article de mars 2025, un cadre appelé « Défaillance Mutuelle Assurée de l’IA » (MAIM). Ce modèle de dissuasion axé sur le cyberespace, inspiré des principes de la Guerre froide, établirait que toute tentative agressive de domination unilatérale de l’IA déclencherait des mesures préventives de la part des rivaux.
« Ce qui commence comme une course à l’arme suprême et au contrôle mondial risque de provoquer des contre-mesures hostiles et une escalade des tensions, sapant ainsi la stabilité même que cette stratégie prétend assurer », écrivent Schmidt et ses collègues. Les enjeux sont existentiels — les scénarios vont du sabotage cybernétique ciblant l’infrastructure de l’IA à des frappes préventives rappelant la politique du bord du gouffre de la Guerre froide.
Bien que certains critiques, dont la conseillère à la sécurité nationale Evelyn Green, soutiennent que le MAIM manque de mécanismes exécutoires comparativement aux traités de non-prolifération nucléaire, Schmidt maintient que la dissuasion, combinée à la transparence et à la coopération internationale, représente la meilleure voie pour gérer les risques sans précédent des systèmes d’IA superintelligents.