menu
close

OpenAI前首席科学家曾计划为后AGI时代建造末日地堡

前OpenAI首席科学家伊利亚·苏茨克维尔(Ilya Sutskever)曾提出建造末日地堡,以在实现通用人工智能(AGI)后保护研究人员免受潜在威胁。这一细节在Karen Hao新书《AI帝国》中首次披露,凸显了苏茨克维尔对AGI生存风险的深切担忧,这也最终促使他离开OpenAI并创立了Safe Superintelligence Inc。
OpenAI前首席科学家曾计划为后AGI时代建造末日地堡

2023年夏天,在一次与OpenAI研究人员的会议上,时任首席科学家的伊利亚·苏茨克维尔(Ilya Sutskever)做出了一个令人震惊的声明:“在发布AGI之前,我们肯定会建一个地堡。”这一细节首次见诸Karen Hao新近出版的著作《AI帝国:山姆·奥特曼的OpenAI之梦与噩梦》,让外界得以一窥这位AI领域最具影响力人物之一所怀有的末日忧虑。

苏茨克维尔是OpenAI的联合创始人,并担任首席科学家直到2024年5月。他坚信,一旦实现具备人类认知能力的通用人工智能,研究人员将需要保护。据Hao书中消息人士透露,苏茨克维尔提出建造地堡有双重目的:一是为关键科学家在AGI发布后可能引发的地缘政治混乱中提供庇护,二是作为影响超级智能系统未来演化的前沿基地。

“一些人——伊利亚就是其中之一——相信建成AGI会带来‘天启’。”一位研究人员对Hao表示,这里所说的“天启”并非比喻,而是指一次真正改变世界的事件。据称,苏茨克维尔曾向同事保证,进入地堡是“自愿”的,但他对如此极端准备的平静态度,还是令组织内许多人感到不安。

地堡计划的提出,正值OpenAI内部围绕公司发展方向的紧张局势不断加剧。苏茨克维尔等人担心,组织过于重视商业扩张而忽视安全规范——这些担忧最终导致了2023年11月试图罢免CEO山姆·奥特曼(Sam Altman)的失败行动。在奥特曼重新掌权后,苏茨克维尔于2024年5月离开OpenAI,与Daniel Gross和Daniel Levy共同创立了Safe Superintelligence(SSI)。

SSI截至2025年4月已筹集30亿美元,估值达到320亿美元,体现了苏茨克维尔对AI安全的持续承诺。与OpenAI多元化的发展路径不同,SSI专注于安全超级智能的研发。苏茨克维尔表示:“我们的第一个产品就是安全的超级智能,在此之前我们不会做任何其他事情。”

苏茨克维尔的谨慎与奥特曼更为乐观的态度形成鲜明对比,突显了AI社区内部的理念分歧。苏茨克维尔为潜在灾难做准备,而奥特曼则认为AGI的到来“对社会影响出人意料地小”。随着超级智能竞赛加速,这两种截然不同的愿景,正持续影响着人类如何面对这一或许是最具决定性的技术发展。

Source: Naturalnews.com

Latest News