menu
close

Schmidt advarer: AI-kapløb kan udløse angreb på datacentre

Tidligere Google-direktør Eric Schmidt advarer om, at det eskalerende AI-kapløb mellem USA og Kina kan føre til global konflikt om datacentre og kritiske ressourcer. I en nylig TED Talk fremlagde Schmidt et hypotetisk scenarie, hvor nationer kunne ty til sabotage eller endda fysiske angreb på rivaliserende AI-infrastruktur for at forhindre at blive overhalet i kapløbet om superintelligens. Som alternativ til en farlig 'Manhattan Project'-tilgang foreslår Schmidt og kolleger en ramme kaldet Mutual Assured AI Malfunction (MAIM) for at afskrække ensidig dominans.
Schmidt advarer: AI-kapløb kan udløse angreb på datacentre

Det globale kapløb om at opnå superintelligente AI-systemer skaber geopolitiske spændinger, der ifølge tidligere Google-direktør Eric Schmidt kan eskalere fra teknologisk konkurrence til reel konflikt.

I sit TED Talk i maj 2025 beskrev Schmidt, hvordan AI-kapløbet mellem USA og Kina i stigende grad minder om atomvåbenkapløbet under Den Kolde Krig. Han advarede om, at hvis én nation begynder at trække fra i udviklingen af superintelligente systemer, kan det føre til, at den bagefterliggende nation griber til mere og mere desperate midler – herunder sabotage eller endda bombning af datacentre – for at undgå at blive permanent overhalet.

Schmidt fremhævede, at Kinas open source-tilgang til AI-udvikling udgør en strategisk risiko for USA, som i øjeblikket foretrækker lukkede, proprietære AI-modeller. "Fordi Kina deler sine AI-fremskridt åbent, drager USA fordel af dem, men risikerer at sakke bagud i et globalt open source-kapløb," forklarede Schmidt. Denne dynamik kan intensivere konkurrencen, hvor det første land til at opnå superintelligens får uigenkaldelig dominans via netværkseffekter.

I stedet for at forfølge en farlig 'Manhattan Project'-tilgang til AI-udvikling foreslog Schmidt sammen med medforfatterne Alexandr Wang og Dan Hendrycks i deres artikel fra marts 2025 en ramme kaldet Mutual Assured AI Malfunction (MAIM). Denne cyberfokuserede afskrækkelsesmodel, inspireret af principper fra Den Kolde Krig, skal sikre, at ethvert aggressivt forsøg på ensidig AI-dominans udløser forebyggende tiltag fra rivaler.

"Det, der begynder som et kapløb om et supervåben og global kontrol, risikerer at fremprovokere fjendtlige modforanstaltninger og eskalere spændinger, hvilket underminerer den stabilitet, strategien hævder at sikre," skrev Schmidt og hans kolleger. Indsatsen er eksistentiel – scenarierne spænder fra cybersabotage rettet mod AI-infrastruktur til forebyggende angreb, der minder om Den Kolde Krigs balancegang.

Selvom nogle kritikere, herunder den nationale sikkerhedsrådgiver Evelyn Green, mener, at MAIM mangler håndhævelige mekanismer sammenlignet med traktater om ikke-spredning af atomvåben, fastholder Schmidt, at afskrækkelse kombineret med gennemsigtighed og internationalt samarbejde er den bedste vej frem for at håndtere de hidtil usete risici ved superintelligente AI-systemer.

Source: Naturalnews.com

Latest News