menu
close

Schmidt ostrzega, że wyścig zbrojeń w dziedzinie AI może wywołać ataki na centra danych

Były CEO Google, Eric Schmidt, ostrzegł, że narastający wyścig zbrojeń w dziedzinie sztucznej inteligencji pomiędzy USA a Chinami może doprowadzić do globalnego konfliktu o centra danych i kluczowe zasoby. W swoim najnowszym wystąpieniu na TED, Schmidt przedstawił hipotetyczny scenariusz, w którym państwa mogą uciekać się do sabotażu, a nawet fizycznych ataków na infrastrukturę AI rywali, aby nie zostać wyprzedzonymi w wyścigu do superinteligencji. Jako alternatywę dla niebezpiecznego podejścia na wzór „Projektu Manhattan” w rozwoju AI, Schmidt i jego współpracownicy proponują ramy o nazwie Mutual Assured AI Malfunction (MAIM), mające zniechęcać do jednostronnej dominacji.
Schmidt ostrzega, że wyścig zbrojeń w dziedzinie AI może wywołać ataki na centra danych

Globalny wyścig do osiągnięcia systemów superinteligentnej sztucznej inteligencji wywołuje napięcia geopolityczne, które – według alarmujących ostrzeżeń byłego CEO Google, Erica Schmidta – mogą przerodzić się z rywalizacji technologicznej w realny konflikt.

W swoim wystąpieniu na TED w maju 2025 roku Schmidt nakreślił, jak wyścig zbrojeń w dziedzinie AI pomiędzy Stanami Zjednoczonymi a Chinami coraz bardziej przypomina nuklearne przeciąganie liny z czasów zimnej wojny. Ostrzegł, że jeśli jedno państwo zacznie wyraźnie wyprzedzać rywala w rozwoju superinteligentnych systemów, kraj pozostający w tyle może sięgnąć po coraz bardziej desperackie środki – włącznie z sabotażem czy nawet bombardowaniem centrów danych – by nie zostać trwale zdominowanym.

Schmidt podkreślił, że otwartoźródłowe podejście Chin do rozwoju AI stanowi strategiczne zagrożenie dla USA, które obecnie stawiają na zamknięte, własnościowe modele sztucznej inteligencji. „Ponieważ Chiny dzielą się swoimi osiągnięciami w AI otwarcie, Stany Zjednoczone korzystają z nich, ale jednocześnie ryzykują pozostanie w tyle w globalnym wyścigu open source” – wyjaśnił Schmidt. Ta dynamika może zaostrzyć konkurencję, w której kraj pierwszy osiągający superinteligencję zyskuje nieodwracalną przewagę dzięki efektom sieciowym.

Zamiast podążać niebezpieczną ścieżką rozwoju AI na wzór „Projektu Manhattan”, Schmidt oraz współautorzy Alexandr Wang i Dan Hendrycks zaproponowali w swoim artykule z marca 2025 roku ramy o nazwie Mutual Assured AI Malfunction (MAIM). Ten cybernetyczny model odstraszania, inspirowany zasadami zimnej wojny, zakłada, że każda agresywna próba jednostronnej dominacji w AI wywoła działania prewencyjne ze strony rywali.

„To, co zaczyna się jako dążenie do superbroni i globalnej kontroli, grozi wywołaniem wrogich kontrposunięć i eskalacją napięć, podważając tym samym stabilność, którą ta strategia miała zapewnić” – napisali Schmidt i jego współpracownicy. Stawka jest egzystencjalna – scenariusze obejmują zarówno cybernetyczny sabotaż infrastruktury AI, jak i prewencyjne ataki przypominające balansowanie na krawędzi wojny z czasów zimnej wojny.

Choć niektórzy krytycy, w tym doradczyni ds. bezpieczeństwa narodowego Evelyn Green, twierdzą, że MAIM nie posiada egzekwowalnych mechanizmów na wzór traktatów o nierozprzestrzenianiu broni jądrowej, Schmidt utrzymuje, że odstraszanie, w połączeniu z transparentnością i międzynarodową współpracą, to najlepsza droga do zarządzania bezprecedensowym ryzykiem związanym z systemami superinteligentnej sztucznej inteligencji.

Source: Naturalnews.com

Latest News