menu
close

Schmidt varuje, že preteky v oblasti umelej inteligencie môžu viesť k útokom na dátové centrá

Bývalý generálny riaditeľ Googlu Eric Schmidt varoval, že stupňujúce sa preteky v oblasti umelej inteligencie medzi USA a Čínou môžu viesť ku globálnemu konfliktu o dátové centrá a kritické zdroje. Vo svojom nedávnom TED Talku Schmidt predstavil hypotetický scenár, v ktorom by krajiny mohli pristúpiť k sabotáži alebo dokonca fyzickým útokom na konkurenčnú AI infraštruktúru, aby zabránili prekonaniu v pretekoch o superinteligenciu. Ako alternatívu k nebezpečnému prístupu „projektu Manhattan“ Schmidt a jeho kolegovia navrhujú rámec s názvom Mutual Assured AI Malfunction (MAIM), ktorý má odradiť od jednostrannej dominancie.
Schmidt varuje, že preteky v oblasti umelej inteligencie môžu viesť k útokom na dátové centrá

Globálne preteky o dosiahnutie superinteligentných AI systémov vytvárajú geopolitické napätie, ktoré sa podľa varovaní bývalého generálneho riaditeľa Googlu Erica Schmidta môže vyhrotiť z technologickej súťaže až do reálneho konfliktu.

Vo svojom TED Talku v máji 2025 Schmidt načrtol, ako sa preteky v oblasti AI medzi Spojenými štátmi a Čínou čoraz viac podobajú jadrovému patu z obdobia studenej vojny. Upozornil, že ak by jedna krajina začala získavať náskok vo vývoji superinteligentných systémov, zaostávajúca strana by mohla siahnuť po čoraz zúfalejších opatreniach – vrátane sabotáže či dokonca bombardovania dátových centier – aby zabránila trvalému prekonaniu.

Schmidt zdôraznil, že čínsky prístup k vývoju AI na báze open source predstavuje pre USA strategické riziko, keďže tie v súčasnosti uprednostňujú uzavreté, proprietárne modely AI. „Keďže Čína svoje pokroky v AI zverejňuje, USA z nich profitujú, no zároveň riskujú, že v globálnych pretekoch open source zaostanú,“ vysvetlil Schmidt. Táto dynamika môže vystupňovať súťaž, v ktorej krajina, ktorá ako prvá dosiahne superinteligenciu, získa nezvratnú dominanciu vďaka sieťovým efektom.

Namiesto nebezpečného prístupu „projektu Manhattan“ Schmidt a spoluautori Alexandr Wang a Dan Hendrycks vo svojom článku z marca 2025 navrhujú rámec s názvom Mutual Assured AI Malfunction (MAIM). Tento model kybernetickej odstrašujúcej stratégie, inšpirovaný princípmi studenej vojny, by mal zabezpečiť, že akýkoľvek agresívny pokus o jednostrannú AI dominanciu vyvolá preventívne opatrenia zo strany konkurentov.

„To, čo začína ako snaha o superzbraň a globálnu kontrolu, môže vyvolať nepriateľské protiopatrenia a eskaláciu napätia, čím sa podkopáva samotná stabilita, ktorú táto stratégia údajne zabezpečuje,“ napísali Schmidt a jeho kolegovia. V stávke je samotná existencia – scenáre siahajú od kybernetickej sabotáže AI infraštruktúry až po preventívne údery pripomínajúce vyhrotené situácie studenej vojny.

Kým niektorí kritici, vrátane poradkyne pre národnú bezpečnosť Evelyn Greenovej, tvrdia, že MAIM postráda vymožiteľné mechanizmy v porovnaní s dohodami o nešírení jadrových zbraní, Schmidt je presvedčený, že odstrašenie v kombinácii s transparentnosťou a medzinárodnou spoluprácou predstavuje najlepšiu cestu, ako zvládnuť bezprecedentné riziká superinteligentných AI systémov.

Source: Naturalnews.com

Latest News