menu
close

Бивш учен от OpenAI планирал бункер за свят след създаването на AGI

Бившият главен учен на OpenAI Иля Суцкевер е предложил изграждането на бункер за защита на изследователите от потенциални опасности след създаването на изкуствен общ интелект (AGI). Разкритието, описано в новата книга на Карън Хао „Империята на ИИ“, подчертава дълбоките опасения на Суцкевер относно екзистенциалните рискове от AGI, които в крайна сметка допринасят за напускането му от OpenAI и основаването на Safe Superintelligence Inc.
Бивш учен от OpenAI планирал бункер за свят след създаването на AGI

През лятото на 2023 г., по време на среща с изследователи от OpenAI, тогавашният главен учен Иля Суцкевер направил поразително изявление: „Определено ще построим бункер, преди да пуснем AGI.“ Това разкритие, за първи път съобщено в наскоро публикуваната книга на Карън Хао „Империята на ИИ: Мечти и кошмари в OpenAI на Сам Алтман“, дава поглед към апокалиптичните опасения на една от най-влиятелните фигури в сферата на изкуствения интелект.

Суцкевер, който е съосновател на OpenAI и главен учен до май 2024 г., вярвал, че изследователите ще имат нужда от защита, след като постигнат изкуствен общ интелект — системи с човешко ниво на когнитивни способности. Според източници, цитирани в книгата на Хао, предложението на Суцкевер за бункер имало двойна цел: да предпази ключовите учени от геополитическия хаос, който може да последва пускането на AGI, и потенциално да служи като база за влияние върху това как ще се развиват суперинтелигентните системи.

„Има група хора — Иля е един от тях — които вярват, че създаването на AGI ще доведе до възнесение“, казва един от изследователите пред Хао, като визира не метафора, а буквално събитие, което ще промени света. Според съобщения Суцкевер уверил колегите си, че влизането в бункера ще бъде „по желание“, но неговият прагматичен подход към подобни крайни мерки разтревожил мнозина в организацията.

Предложението за бункер се появява на фона на нарастващо напрежение в OpenAI относно посоката на компанията. Суцкевер и други се притеснявали, че организацията дава приоритет на търговската експанзия пред мерките за безопасност — опасения, които в крайна сметка довеждат до неуспешния опит за отстраняване на изпълнителния директор Сам Алтман през ноември 2023 г. След повторното назначаване на Алтман, Суцкевер напуска OpenAI през май 2024 г., за да създаде Safe Superintelligence (SSI) заедно с Даниел Грос и Даниел Леви.

SSI, която е набрала 3 милиарда долара и е достигнала оценка от 32 милиарда долара към април 2025 г., олицетворява продължаващия ангажимент на Суцкевер към безопасността на ИИ. За разлика от диверсифицирания подход на OpenAI, SSI се фокусира изцяло върху разработването на безопасен суперинтелект, като Суцкевер заявява: „Първият ни продукт ще бъде безопасният суперинтелект и няма да правим нищо друго, докато не го постигнем.“

Контрастът между предпазливия подход на Суцкевер и по-оптимистичната визия на Алтман подчертава идеологическото разделение в общността на ИИ. Докато Суцкевер се подготвя за потенциална катастрофа, Алтман предполага, че AGI ще настъпи с „изненадващо малко обществено въздействие“. С ускоряването на надпреварата към суперинтелигентността тези конкуриращи се визии продължават да оформят начина, по който човечеството се подготвя за може би най-значимото си технологично развитие.

Source: Naturalnews.com

Latest News