Das weltweite Rennen um die Entwicklung superintelligenter KI-Systeme sorgt laut alarmierenden Warnungen des ehemaligen Google-CEOs Eric Schmidt für geopolitische Spannungen, die von technologischer Konkurrenz bis hin zu tatsächlichen Konflikten eskalieren könnten.
In seinem TED-Vortrag im Mai 2025 erläuterte Schmidt, wie das KI-Wettrüsten zwischen den Vereinigten Staaten und China zunehmend an das nukleare Patt des Kalten Krieges erinnert. Er warnte, dass, sollte eine Nation bei der Entwicklung superintelligenter Systeme die Führung übernehmen, das zurückliegende Land zu immer verzweifelteren Maßnahmen greifen könnte – einschließlich Sabotage oder sogar Bombardierung von Rechenzentren –, um ein dauerhaftes Abgehängtwerden zu verhindern.
Schmidt hob hervor, dass Chinas Open-Source-Ansatz in der KI-Entwicklung ein strategisches Risiko für die USA darstellt, die derzeit auf geschlossene, proprietäre KI-Modelle setzen. „Da China seine KI-Fortschritte offen teilt, profitiert die USA zwar davon, läuft aber Gefahr, im globalen Open-Source-Wettlauf ins Hintertreffen zu geraten“, erklärte Schmidt. Diese Dynamik könnte den Wettbewerb verschärfen, da das erste Land, das Superintelligenz erreicht, durch Netzwerkeffekte eine unumkehrbare Dominanz erlangen könnte.
Anstatt einen gefährlichen 'Manhattan-Projekt'-Ansatz für die KI-Entwicklung zu verfolgen, schlugen Schmidt und seine Mitautoren Alexandr Wang und Dan Hendrycks in ihrer Veröffentlichung vom März 2025 einen Rahmen namens Mutual Assured AI Malfunction (MAIM) vor. Dieses cyberzentrierte Abschreckungsmodell, inspiriert von Prinzipien des Kalten Krieges, soll sicherstellen, dass jeder aggressive Versuch, eine einseitige KI-Dominanz zu erlangen, präventive Maßnahmen der Rivalen auslöst.
„Was als Streben nach einer Superwaffe und globaler Kontrolle beginnt, birgt das Risiko, feindselige Gegenmaßnahmen und eskalierende Spannungen auszulösen und damit genau jene Stabilität zu untergraben, die die Strategie eigentlich sichern soll“, schrieben Schmidt und seine Kollegen. Die Risiken sind existenziell – die Szenarien reichen von Cyber-Sabotage gegen KI-Infrastruktur bis zu Präventivschlägen, die an die Eskalationslogik des Kalten Krieges erinnern.
Während einige Kritiker, darunter die Nationale Sicherheitsberaterin Evelyn Green, argumentieren, dass MAIM im Vergleich zu nuklearen Nichtverbreitungsverträgen an durchsetzbaren Mechanismen mangele, hält Schmidt dagegen, dass Abschreckung, kombiniert mit Transparenz und internationaler Zusammenarbeit, den besten Weg darstelle, um die beispiellosen Risiken superintelligenter KI-Systeme zu managen.