menu
close

Schmidt upozorava: Utrka u razvoju umjetne inteligencije može izazvati napade na podatkovne centre

Bivši izvršni direktor Googlea, Eric Schmidt, upozorio je da bi eskalacija utrke u razvoju umjetne inteligencije između SAD-a i Kine mogla dovesti do globalnog sukoba oko podatkovnih centara i ključnih resursa. U nedavnom TED Talku, Schmidt je iznio hipotetski scenarij u kojem bi države mogle pribjeći sabotaži ili čak fizičkim napadima na infrastrukturu suparničke umjetne inteligencije kako bi spriječile zaostajanje u utrci za superinteligencijom. Kao alternativu opasnom pristupu 'Manhattan Projecta' u razvoju AI-ja, Schmidt i kolege predlažu okvir nazvan Mutual Assured AI Malfunction (MAIM) za odvraćanje od jednostrane dominacije.
Schmidt upozorava: Utrka u razvoju umjetne inteligencije može izazvati napade na podatkovne centre

Globalna utrka za postizanjem superinteligentnih AI sustava stvara geopolitičke napetosti koje bi, prema zabrinjavajućim upozorenjima bivšeg izvršnog direktora Googlea Erica Schmidta, mogle prerasti iz tehnološkog natjecanja u stvarni sukob.

U svom TED Talku u svibnju 2025., Schmidt je opisao kako utrka u razvoju umjetne inteligencije između Sjedinjenih Država i Kine sve više podsjeća na nuklearno nadmetanje iz doba Hladnog rata. Upozorio je da, ako jedna država počne značajno napredovati u razvoju superinteligentnih sustava, ona koja zaostaje mogla bi posegnuti za sve očajnijim mjerama – uključujući sabotažu ili čak bombardiranje podatkovnih centara – kako bi spriječila trajno zaostajanje.

Schmidt je istaknuo da kineski pristup razvoju AI-ja s otvorenim kodom predstavlja strateški rizik za SAD, koji trenutno preferira zatvorene, vlasničke AI modele. "Budući da Kina otvoreno dijeli svoja AI dostignuća, SAD od njih ima koristi, ali riskira zaostajanje u globalnoj utrci otvorenog koda," objasnio je Schmidt. Ova dinamika može dodatno pojačati natjecanje u kojem prva država koja postigne superinteligenciju stječe nepovratnu dominaciju zahvaljujući mrežnim efektima.

Umjesto opasnog pristupa 'Manhattan Projecta' u razvoju umjetne inteligencije, Schmidt i koautori Alexandr Wang i Dan Hendrycks predložili su u svom radu iz ožujka 2025. okvir nazvan Mutual Assured AI Malfunction (MAIM). Ovaj model odvraćanja temeljen na kibernetičkoj sigurnosti, inspiriran načelima Hladnog rata, predviđa da bi svaki agresivan pokušaj jednostrane AI dominacije izazvao preventivne mjere suparnika.

"Ono što započinje kao potraga za superoružjem i globalnom kontrolom, riskira izazivanje neprijateljskih protumjera i eskalaciju napetosti, čime se podriva sama stabilnost koju ta strategija navodno želi osigurati," napisali su Schmidt i njegovi kolege. Ulog je egzistencijalan – scenariji se kreću od kibernetičke sabotaže AI infrastrukture do preventivnih napada nalik na prijetnje iz doba Hladnog rata.

Iako neki kritičari, uključujući savjetnicu za nacionalnu sigurnost Evelyn Green, tvrde da MAIM nema provedive mehanizme u usporedbi s ugovorima o neširenju nuklearnog oružja, Schmidt smatra da odvraćanje, u kombinaciji s transparentnošću i međunarodnom suradnjom, nudi najbolji put za upravljanje bezpresedanskim rizicima superinteligentnih AI sustava.

Source: Naturalnews.com

Latest News