Perlombaan global untuk mencapai sistem AI superintelligent tengah menciptakan ketegangan geopolitik yang dapat meningkat dari persaingan teknologi menjadi konflik nyata, menurut peringatan serius dari mantan CEO Google, Eric Schmidt.
Dalam TED Talk pada Mei 2025, Schmidt menjelaskan bagaimana perlombaan senjata AI antara Amerika Serikat dan Tiongkok semakin menyerupai ketegangan nuklir di era Perang Dingin. Ia memperingatkan bahwa jika satu negara mulai unggul dalam pengembangan sistem superintelligent, negara yang tertinggal dapat mengambil langkah-langkah putus asa—termasuk sabotase atau bahkan pengeboman pusat data—demi mencegah ketertinggalan permanen.
Schmidt menyoroti bahwa pendekatan pengembangan AI open-source yang diambil Tiongkok menjadi risiko strategis bagi AS, yang saat ini lebih memilih model AI tertutup dan proprietary. "Karena Tiongkok membagikan kemajuan AI-nya secara terbuka, AS memang diuntungkan, namun berisiko tertinggal dalam perlombaan open-source global," jelas Schmidt. Dinamika ini dapat memperkuat persaingan di mana negara pertama yang mencapai superintelligence akan memperoleh dominasi tak terbalikkan melalui efek jaringan.
Alih-alih mengejar pendekatan 'Proyek Manhattan' yang berbahaya dalam pengembangan AI, Schmidt bersama penulis bersama Alexandr Wang dan Dan Hendrycks mengusulkan dalam makalah Maret 2025 sebuah kerangka kerja bernama Mutual Assured AI Malfunction (MAIM). Model pencegahan berbasis dunia maya ini, terinspirasi dari prinsip-prinsip Perang Dingin, akan memastikan bahwa setiap upaya agresif untuk dominasi AI sepihak akan memicu tindakan pencegahan dari pihak rival.
"Apa yang dimulai sebagai dorongan untuk menciptakan superweapon dan kontrol global berisiko memicu tindakan balasan yang bermusuhan dan meningkatkan ketegangan, sehingga justru merusak stabilitas yang ingin dicapai strategi tersebut," tulis Schmidt dan koleganya. Taruhannya bersifat eksistensial—skenario yang mungkin terjadi mulai dari sabotase siber yang menargetkan infrastruktur AI hingga serangan pre-emptive yang menyerupai brinkmanship di era Perang Dingin.
Meski beberapa kritikus, termasuk Penasihat Keamanan Nasional Evelyn Green, berpendapat bahwa MAIM tidak memiliki mekanisme penegakan sekuat perjanjian non-proliferasi nuklir, Schmidt tetap meyakini bahwa pencegahan, transparansi, dan kerja sama internasional adalah jalan terbaik untuk mengelola risiko luar biasa dari sistem AI superintelligent.