Ayon sa mga babala ng dating CEO ng Google na si Eric Schmidt, ang pandaigdigang karera tungo sa pagkamit ng superintelligent na mga AI system ay lumilikha ng mga tensiyong geopolitikal na maaaring lumala mula sa kompetisyong teknolohikal patungo sa aktwal na sigalot.
Sa kanyang TED Talk noong Mayo 2025, inilatag ni Schmidt kung paano ang AI arms race sa pagitan ng Estados Unidos at Tsina ay lalong nagmumukhang nuclear standoff noong panahon ng Cold War. Binalaan niya na kung may isang bansa na magsimulang manguna sa pag-develop ng superintelligent na mga sistema, maaaring gumamit ang naiiwang bansa ng mas desperadong hakbang—kabilang ang sabotahe o maging pambobomba ng mga data center—upang hindi tuluyang mapag-iwanan.
Binanggit ni Schmidt na ang open-source na paraan ng pag-develop ng AI ng Tsina ay nagdudulot ng estratehikong panganib sa U.S., na mas pinipili ang closed at proprietary na mga AI model. "Dahil bukas na ibinabahagi ng Tsina ang kanilang mga pagsulong sa AI, nakikinabang dito ang U.S. ngunit nanganganib namang mapag-iwanan sa pandaigdigang open-source na karera," paliwanag ni Schmidt. Maaaring magdulot ito ng mas matinding kompetisyon kung saan ang unang bansa na makakamit ng superintelligence ay magkakaroon ng hindi na mababawi pang dominasyon dahil sa network effects.
Sa halip na ituloy ang mapanganib na 'Manhattan Project' na paraan ng AI development, iminungkahi nina Schmidt at ng kanyang mga co-author na sina Alexandr Wang at Dan Hendrycks sa kanilang papel noong Marso 2025 ang isang balangkas na tinatawag na Mutual Assured AI Malfunction (MAIM). Ang modelong ito, na nakabatay sa prinsipyo ng Cold War, ay naglalayong tiyakin na anumang agresibong pagsubok na makamit ang unilateral na dominasyon sa AI ay magpapasimula ng mga preventive na hakbang mula sa mga karibal.
"Ang nagsisimula bilang pagtulak para sa isang superweapon at pandaigdigang kontrol ay nanganganib magdulot ng mga mapanirang kontra-hakbang at paglala ng tensiyon, na sa huli ay sumisira sa mismong katatagan na nais sanang makamit ng estratehiya," ayon kina Schmidt at mga kasamahan. Napakataas ng pusta—mula sa cyber sabotage na nakatuon sa AI infrastructure hanggang sa mga preemptive strike na kahalintulad ng brinkmanship noong Cold War.
Bagama't may ilang kritiko, kabilang si National Security Advisor Evelyn Green, na nagsasabing kulang ang MAIM sa mga mekanismong maaaring ipatupad kumpara sa mga kasunduan sa nuclear non-proliferation, naninindigan si Schmidt na ang deterrence, kasabay ng transparency at internasyonal na kooperasyon, ang pinakamainam na landas upang harapin ang walang kapantay na panganib ng mga superintelligent na AI system.