menu
close

OpenAI 전 수석 과학자, AGI 이후 세계 대비 벙커 건설 계획

OpenAI의 전 수석 과학자 일리야 수츠케버는 인공지능 일반지능(AGI) 개발 이후 발생할 수 있는 위험으로부터 연구자들을 보호하기 위해 '종말 벙커' 건설을 제안했다. 카렌 하오의 신간 『AI 제국』에서 공개된 이 사실은 수츠케버가 AGI의 존재론적 위험에 대해 얼마나 깊이 우려했는지를 보여주며, 이는 그가 OpenAI를 떠나 Safe Superintelligence Inc.를 설립하는 데 결정적인 역할을 했다.
OpenAI 전 수석 과학자, AGI 이후 세계 대비 벙커 건설 계획

2023년 여름, OpenAI 연구원들과의 회의에서 당시 수석 과학자였던 일리야 수츠케버는 충격적인 선언을 했다. "우리가 AGI를 공개하기 전에 반드시 벙커를 지을 겁니다." 카렌 하오의 신간 『AI 제국: 샘 알트먼의 OpenAI에서의 꿈과 악몽』에 처음으로 공개된 이 발언은, AI 분야에서 가장 영향력 있는 인물 중 한 명이 품고 있던 종말론적 우려를 엿볼 수 있게 한다.

OpenAI의 공동 창립자이자 2024년 5월까지 수석 과학자를 지낸 수츠케버는, 인간 수준의 인지 능력을 갖춘 인공지능(AGI)이 실현될 경우 연구자들이 보호를 받아야 한다고 믿었다. 하오의 책에 인용된 소식통에 따르면, 수츠케버의 벙커 제안은 두 가지 목적을 갖고 있었다. AGI 공개 이후 발생할 수 있는 지정학적 혼란으로부터 핵심 과학자들을 보호하고, 동시에 초지능 시스템의 진화에 영향을 미칠 수 있는 거점 역할을 하려는 의도였다.

한 연구원은 하오에게 "일리야를 포함한 일부 사람들은 AGI 개발이 '래처'를 가져올 것이라고 믿는다"고 전했다. 여기서 '래처'란 은유가 아니라 실제로 세계를 바꿀 사건을 의미한다. 수츠케버는 동료들에게 벙커 입장은 '선택 사항'이라고 안심시켰지만, 이처럼 극단적인 대비책을 아무렇지 않게 논의하는 그의 태도는 조직 내 많은 이들을 불안하게 했다.

이 벙커 제안은 OpenAI 내부에서 회사의 방향성을 둘러싼 긴장이 고조되던 시기에 나왔다. 수츠케버와 일부 인사들은 조직이 안전 프로토콜보다 상업적 확장에 더 집중하고 있다고 우려했고, 이는 2023년 11월 샘 알트먼 CEO 해임 시도라는 사태로 이어졌다. 알트먼이 복귀한 후, 수츠케버는 2024년 5월 다니엘 그로스, 다니엘 레비와 함께 Safe Superintelligence(SSI)를 설립하며 OpenAI를 떠났다.

SSI는 2025년 4월 기준 30억 달러의 투자 유치와 320억 달러의 기업가치를 기록하며, 수츠케버의 AI 안전에 대한 지속적인 헌신을 보여준다. OpenAI의 다각화된 전략과 달리, SSI는 '안전한 초지능' 개발에만 집중한다. 수츠케버는 "우리의 첫 번째 제품은 안전한 초지능이 될 것이며, 그 전까지는 다른 어떤 것도 하지 않을 것"이라고 밝혔다.

수츠케버의 신중한 접근과 알트먼의 낙관적 관점의 대조는 AI 커뮤니티 내 이념적 분열을 드러낸다. 수츠케버가 잠재적 재앙에 대비했다면, 알트먼은 AGI가 "놀랄 만큼 사회적 영향 없이" 도래할 것이라고 주장해왔다. 초지능 개발 경쟁이 가속화되는 가운데, 이러한 상반된 비전은 인류가 가장 중대한 기술 발전을 어떻게 맞이할지에 계속해서 영향을 미치고 있다.

Source: Naturalnews.com

Latest News