menu
close

Bývalý vedec OpenAI plánoval bunker pre svet po vzniku AGI

Bývalý hlavný vedec OpenAI Ilya Sutskever navrhol vybudovanie bunkra na ochranu výskumníkov pred možnými hrozbami po vytvorení všeobecnej umelej inteligencie (AGI). Toto odhalenie, podrobne opísané v novej knihe Karen Hao 'Empire of AI', poukazuje na Sutskeverove hlboké obavy z existenčných rizík AGI, ktoré napokon prispeli k jeho odchodu z OpenAI a založeniu spoločnosti Safe Superintelligence Inc.
Bývalý vedec OpenAI plánoval bunker pre svet po vzniku AGI

V lete 2023 počas stretnutia s výskumníkmi OpenAI vtedajší hlavný vedec Ilya Sutskever urobil šokujúce vyhlásenie: „Určite postavíme bunker, ešte predtým, než uvoľníme AGI.“ Toto odhalenie, ktoré prvýkrát zverejnila Karen Hao vo svojej nedávno vydanej knihe „Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI“, poskytuje pohľad do apokalyptických obáv jedného z najvplyvnejších predstaviteľov umelej inteligencie.

Sutskever, ktorý spoluzakladal OpenAI a pôsobil ako hlavný vedec až do mája 2024, veril, že výskumníci budú potrebovať ochranu po dosiahnutí všeobecnej umelej inteligencie – teda systémov s kognitívnymi schopnosťami na úrovni človeka. Podľa zdrojov citovaných v knihe Karen Hao mal Sutskeverov návrh na bunker dvojitý účel: ochrániť kľúčových vedcov pred geopolitickým chaosom, ktorý by mohol nasledovať po uvoľnení AGI, a potenciálne slúžiť ako základňa na ovplyvňovanie vývoja superinteligentných systémov.

„Existuje skupina ľudí – Ilya je jedným z nich – ktorí veria, že vybudovanie AGI prinesie niečo ako vytrženie,“ povedal jeden z výskumníkov Hao, pričom nemal na mysli metaforu, ale doslova svetovo zmenový moment. Sutskever údajne kolegom uisťoval, že vstup do bunkra bude „dobrovoľný“, no jeho vecný prístup k takýmto extrémnym prípravám mnohých v organizácii znepokojil.

Návrh na bunker sa objavil uprostred narastajúcich napätí v OpenAI ohľadom smerovania spoločnosti. Sutskever a ďalší sa obávali, že organizácia uprednostňuje komerčnú expanziu pred bezpečnostnými protokolmi – obavy, ktoré napokon viedli k neúspešnému pokusu o odvolanie generálneho riaditeľa Sama Altmana v novembri 2023. Po Altmanovom návrate do funkcie Sutskever v máji 2024 opustil OpenAI a spolu s Danielom Grossom a Danielom Levym založil spoločnosť Safe Superintelligence (SSI).

SSI, ktorá do apríla 2025 získala investície vo výške 3 miliardy dolárov a dosiahla hodnotu 32 miliárd dolárov, predstavuje pokračovanie Sutskeverovho záväzku k bezpečnosti umelej inteligencie. Na rozdiel od diverzifikovaného prístupu OpenAI sa SSI zameriava výlučne na vývoj bezpečnej superinteligencie, pričom Sutskever uviedol: „Náš prvý produkt bude bezpečná superinteligencia a dovtedy nebudeme robiť nič iné.“

Kontrast medzi Sutskeverovým opatrným prístupom a Altmanovým optimistickejším pohľadom zvýrazňuje ideologický rozkol v komunite umelej inteligencie. Kým Sutskever sa pripravoval na možnú katastrofu, Altman naznačil, že AGI príde s „prekvapivo malým spoločenským dopadom“. Ako sa preteky za superinteligenciou zrýchľujú, tieto protichodné vízie naďalej formujú spôsob, akým ľudstvo pristupuje k tomu, čo môže byť jeho najzásadnejším technologickým vývojom.

Source: Naturalnews.com

Latest News