menu
close

Bývalý vědec OpenAI plánoval bunkr pro svět po vzniku AGI

Bývalý hlavní vědec OpenAI Ilya Sutskever navrhl vybudovat bunkr na ochranu výzkumníků před možnými hrozbami po vytvoření obecné umělé inteligence (AGI). Toto odhalení, popsané v nové knize Karen Hao 'Empire of AI', poukazuje na Sutskeverovy hluboké obavy z existenčních rizik AGI, které nakonec přispěly k jeho odchodu z OpenAI a založení společnosti Safe Superintelligence Inc.
Bývalý vědec OpenAI plánoval bunkr pro svět po vzniku AGI

V létě 2023 během schůzky s výzkumníky OpenAI tehdejší hlavní vědec Ilya Sutskever učinil šokující prohlášení: „Než vypustíme AGI, rozhodně postavíme bunkr.“ Toto odhalení, které poprvé zaznělo v nedávno vydané knize Karen Hao „Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI“, nabízí pohled do apokalyptických obav jedné z nejvlivnějších osobností světa umělé inteligence.

Sutskever, který spoluzaložil OpenAI a působil jako hlavní vědec až do května 2024, věřil, že výzkumníci budou potřebovat ochranu, jakmile dosáhnou obecné umělé inteligence—systémů s kognitivními schopnostmi na úrovni člověka. Podle zdrojů citovaných v Hao knize měl Sutskeverův návrh na bunkr dvojí účel: chránit klíčové vědce před geopolitickým chaosem, který by mohl následovat po vypuštění AGI, a případně sloužit jako základna pro ovlivnění vývoje superinteligentních systémů.

„Existuje skupina lidí—Ilya je jedním z nich—kteří věří, že vytvoření AGI přinese jakési vytržení,“ řekl Hao jeden z výzkumníků, přičemž neměl na mysli metaforu, ale doslova událost měnící svět. Sutskever údajně kolegy ujišťoval, že vstup do bunkru bude „dobrovolný“, ale jeho věcný přístup k takto extrémním přípravám mnohé v organizaci znepokojil.

Návrh na bunkr se objevil v době narůstajícího napětí uvnitř OpenAI ohledně směřování společnosti. Sutskever a další se obávali, že organizace dává přednost komerční expanzi před bezpečnostními protokoly—obavy, které nakonec vedly k neúspěšnému pokusu o odvolání generálního ředitele Sama Altmana v listopadu 2023. Po Altmanově návratu do funkce Sutskever v květnu 2024 opustil OpenAI a spolu s Danielem Grossem a Danielem Levym založil společnost Safe Superintelligence (SSI).

SSI, která získala tři miliardy dolarů a v dubnu 2025 dosáhla hodnoty 32 miliard dolarů, představuje Sutskeverovo pokračující úsilí o bezpečnost AI. Na rozdíl od diverzifikovaného přístupu OpenAI se SSI zaměřuje výhradně na vývoj bezpečné superinteligence; Sutskever prohlásil: „Naším prvním produktem bude bezpečná superinteligence a do té doby nebudeme dělat nic jiného.“

Kontrast mezi Sutskeverovým opatrným přístupem a Altmanovým optimističtějším pohledem podtrhuje ideologický rozkol uvnitř AI komunity. Zatímco Sutskever se připravoval na možnou katastrofu, Altman naznačoval, že AGI přijde s „překvapivě malým dopadem na společnost“. Jak závod o superinteligenci nabírá na obrátkách, tyto soupeřící vize nadále formují, jak se lidstvo staví k možná nejzásadnějšímu technologickému vývoji své historie.

Source: Naturalnews.com

Latest News