De wereldwijde race om superintelligente AI-systemen te ontwikkelen zorgt voor geopolitieke spanningen die kunnen escaleren van technologische competitie naar daadwerkelijk conflict, zo waarschuwt voormalig Google-CEO Eric Schmidt.
In zijn TED Talk van mei 2025 schetste Schmidt hoe de AI-wapenwedloop tussen de Verenigde Staten en China steeds meer lijkt op de nucleaire patstelling uit het tijdperk van de Koude Oorlog. Hij waarschuwde dat als één land een voorsprong neemt in de ontwikkeling van superintelligente systemen, het achterblijvende land tot steeds wanhopigere maatregelen kan overgaan—waaronder sabotage of zelfs het bombarderen van datacenters—om te voorkomen dat het permanent wordt ingehaald.
Schmidt benadrukte dat China's open-source benadering van AI-ontwikkeling een strategisch risico vormt voor de VS, dat momenteel de voorkeur geeft aan gesloten, propriëtaire AI-modellen. "Omdat China zijn AI-ontwikkelingen openlijk deelt, profiteert de VS daarvan, maar loopt het ook het risico achterop te raken in een wereldwijde open-source race," legde Schmidt uit. Deze dynamiek kan de competitie verder aanwakkeren, waarbij het eerste land dat superintelligentie bereikt een onomkeerbare dominantie verwerft door netwerkeffecten.
In plaats van een gevaarlijke 'Manhattanproject'-aanpak voor AI-ontwikkeling te volgen, stelden Schmidt en co-auteurs Alexandr Wang en Dan Hendrycks in hun paper van maart 2025 een raamwerk voor genaamd Mutual Assured AI Malfunction (MAIM). Dit cybergerichte afschrikkingsmodel, geïnspireerd op principes uit de Koude Oorlog, zou moeten vastleggen dat elke agressieve poging tot eenzijdige AI-dominantie preventieve maatregelen door rivalen zou uitlokken.
"Wat begint als een streven naar een superwapen en wereldwijde controle, dreigt vijandige tegenmaatregelen en oplopende spanningen uit te lokken, waardoor juist de stabiliteit wordt ondermijnd die deze strategie zou moeten waarborgen," schreven Schmidt en zijn collega's. De inzet is existentieel—scenario's variëren van cyberaanvallen op AI-infrastructuur tot preventieve aanvallen die doen denken aan het Koude Oorlog brinkmanship.
Hoewel sommige critici, waaronder Nationaal Veiligheidsadviseur Evelyn Green, stellen dat MAIM minder afdwingbare mechanismen kent dan nucleaire non-proliferatieverdragen, blijft Schmidt erbij dat afschrikking, gecombineerd met transparantie en internationale samenwerking, de beste weg voorwaarts biedt om de ongekende risico's van superintelligente AI-systemen te beheersen.