Globální závod o dosažení superinteligentních systémů umělé inteligence vytváří geopolitické napětí, které by podle varování bývalého generálního ředitele Googlu Erica Schmidta mohlo přerůst z technologické soutěže ve skutečný konflikt.
Ve svém květnovém TED Talku v roce 2025 Schmidt nastínil, jak se závody ve zbrojení v oblasti AI mezi Spojenými státy a Čínou stále více podobají jadernému patu z dob studené války. Upozornil, že pokud by jedna země začala získávat výrazný náskok ve vývoji superinteligentních systémů, mohla by druhá strana sáhnout k čím dál zoufalejším opatřením – včetně sabotáže nebo dokonce bombardování datových center – aby zabránila trvalé ztrátě vedoucí pozice.
Schmidt zdůraznil, že čínský přístup k vývoji AI založený na open source představuje pro USA strategické riziko, protože ty v současnosti upřednostňují uzavřené, proprietární modely AI. „Protože Čína své pokroky v AI sdílí otevřeně, USA z nich sice těží, ale zároveň riskují, že v globálním open source závodu zůstanou pozadu,“ vysvětlil Schmidt. Tato dynamika by mohla vyostřit soutěžení, kdy první země, která dosáhne superinteligence, získá díky síťovým efektům nevratnou dominanci.
Místo nebezpečného „manhattanského projektu“ v oblasti AI Schmidt a spoluautoři Alexandr Wang a Dan Hendrycks ve svém březnovém článku z roku 2025 navrhují rámec s názvem Mutual Assured AI Malfunction (MAIM). Tento model kybernetického odstrašení, inspirovaný principy studené války, by měl zajistit, že jakýkoli agresivní pokus o jednostrannou dominanci v AI vyvolá preventivní opatření ze strany konkurentů.
„To, co začíná jako snaha o vytvoření superzbraně a globální kontrolu, může vyvolat nepřátelská protiopatření a eskalaci napětí, čímž podkopává samotnou stabilitu, kterou má tato strategie údajně zajistit,“ napsali Schmidt a jeho kolegové. V sázce je podle nich samotná existence – scénáře sahají od kybernetické sabotáže zaměřené na AI infrastrukturu až po preventivní údery připomínající riskantní hry studené války.
Zatímco někteří kritici, včetně poradkyně pro národní bezpečnost Evelyn Greenové, tvrdí, že MAIM postrádá vymahatelné mechanismy ve srovnání se smlouvami o nešíření jaderných zbraní, Schmidt je přesvědčen, že odstrašení v kombinaci s transparentností a mezinárodní spoluprací představuje nejlepší cestu, jak zvládnout bezprecedentní rizika spojená se superinteligentními systémy AI.