menu
close

Schmidt varnar för att AI-kapprustning kan utlösa attacker mot datacenter

Googles tidigare vd Eric Schmidt har varnat för att den tilltagande AI-kapprustningen mellan USA och Kina kan leda till globala konflikter kring datacenter och kritiska resurser. I ett nyligen hållet TED Talk presenterade Schmidt ett hypotetiskt scenario där nationer kan ta till sabotage eller till och med fysiska attacker mot rivaliserande AI-infrastruktur för att inte bli omsprungna i jakten på superintelligens. Som ett alternativ till ett farligt 'Manhattanprojekt' för AI-utveckling föreslår Schmidt och kollegor ett ramverk kallat Mutual Assured AI Malfunction (MAIM) för att avskräcka från ensidigt maktövertagande.
Schmidt varnar för att AI-kapprustning kan utlösa attacker mot datacenter

Den globala kapplöpningen om att utveckla superintelligenta AI-system skapar geopolitiska spänningar som enligt oroande varningar från Googles tidigare vd Eric Schmidt kan eskalera från teknologisk konkurrens till verkliga konflikter.

I sitt TED Talk i maj 2025 beskrev Schmidt hur AI-kapprustningen mellan USA och Kina alltmer liknar det nukleära dödläget under kalla kriget. Han varnade för att om ett land börjar dra ifrån i utvecklingen av superintelligenta system kan det efterföljande landet ta till alltmer desperata åtgärder – inklusive sabotage eller till och med bombningar av datacenter – för att inte bli permanent omsprunget.

Schmidt påpekade att Kinas öppna strategi för AI-utveckling innebär en strategisk risk för USA, som för närvarande föredrar slutna, proprietära AI-modeller. "Eftersom Kina delar sina AI-framsteg öppet gynnas USA av detta, men riskerar samtidigt att hamna på efterkälken i en global öppen källkod-kapplöpning," förklarade Schmidt. Denna dynamik kan intensifiera konkurrensen, där det första landet som når superintelligens får en oåterkallelig dominans genom nätverkseffekter.

Istället för att satsa på ett farligt 'Manhattanprojekt' för AI-utveckling föreslog Schmidt och medförfattarna Alexandr Wang och Dan Hendrycks i en artikel från mars 2025 ett ramverk kallat Mutual Assured AI Malfunction (MAIM). Denna cybersäkerhetsbaserade avskräckningsmodell, inspirerad av principer från kalla kriget, skulle innebära att varje aggressivt försök till ensidig AI-dominans skulle utlösa förebyggande åtgärder från rivaler.

"Det som börjar som en satsning på ett supervapen och global kontroll riskerar att utlösa fientliga motåtgärder och ökade spänningar, vilket underminerar den stabilitet strategin påstår sig skapa," skrev Schmidt och hans kollegor. Insatserna är existentiella – scenarierna sträcker sig från cybersabotage riktat mot AI-infrastruktur till förebyggande attacker som påminner om kalla krigets balansgång.

Även om vissa kritiker, däribland nationella säkerhetsrådgivaren Evelyn Green, menar att MAIM saknar verkställbara mekanismer jämfört med icke-spridningsavtal för kärnvapen, hävdar Schmidt att avskräckning, i kombination med transparens och internationellt samarbete, är den bästa vägen framåt för att hantera de aldrig tidigare skådade riskerna med superintelligenta AI-system.

Source: Naturalnews.com

Latest News