menu
close

OpenAI元主任科学者、AGI時代に備えたバンカー建設を計画

OpenAIの元主任科学者イリヤ・サツケバー氏は、人工汎用知能(AGI)の創出後に研究者を潜在的な危険から守るため、終末用バンカーの建設を提案していたことが明らかになった。この事実はカレン・ハオ氏の新著『Empire of AI』で詳細に語られており、サツケバー氏がAGIの存在論的リスクに深い懸念を抱いていたこと、そしてそれがOpenAI退社とSafe Superintelligence Inc.設立の一因となったことを浮き彫りにしている。
OpenAI元主任科学者、AGI時代に備えたバンカー建設を計画

2023年夏、OpenAIの研究者との会議の席上、当時主任科学者だったイリヤ・サツケバー氏は衝撃的な発言をした。「AGIをリリースする前に、必ずバンカーを建設するつもりだ」。この発言は、サム・アルトマン率いるOpenAIの内情を描いたカレン・ハオ氏の新刊『Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI』で初めて明らかにされたもので、AI分野で最も影響力のある人物の一人が抱く終末的な懸念を垣間見せるものだ。

OpenAIの共同創業者であり2024年5月まで主任科学者を務めたサツケバー氏は、人間並みの認知能力を持つAIシステム=人工汎用知能(AGI)の実現後、研究者には保護が必要になると考えていた。ハオ氏の著書で引用された関係者によれば、サツケバー氏のバンカー提案には二つの目的があった。ひとつはAGIのリリース後に生じる可能性のある地政学的混乱から主要な科学者を守ること、もうひとつは超知能システムの進化に影響を与えるための拠点とすることだった。

「イリヤ氏を含む一部の人々は、AGIの構築が“ラプチャー(世界の一変)”をもたらすと信じている」と、ある研究者はハオ氏に語っている。ここでの“ラプチャー”は比喩ではなく、文字通り世界を変える出来事を指しているという。サツケバー氏は同僚たちに、バンカーへの入居は「任意」だと説明したものの、こうした極端な備えに対する彼の淡々とした姿勢は、社内の多くの人々を不安にさせた。

バンカー構想が浮上したのは、OpenAI内部で会社の方向性を巡る緊張が高まっていた時期だった。サツケバー氏や他の一部メンバーは、組織が安全性よりも商業的拡大を優先していることを懸念しており、これが2023年11月のサム・アルトマンCEO解任未遂事件へとつながった。その後アルトマン氏が復帰し、サツケバー氏は2024年5月にOpenAIを退社。ダニエル・グロス氏、ダニエル・レビィ氏と共にSafe Superintelligence(SSI)を設立した。

SSIは2025年4月時点で30億ドルを調達し、評価額は320億ドルに達している。サツケバー氏のAI安全性への強いコミットメントを体現する企業だ。OpenAIが多角的な事業展開を進めるのに対し、SSIは「安全な超知能」の開発にのみ特化しており、サツケバー氏は「最初のプロダクトは安全な超知能であり、それ以外は一切やらない」と語っている。

サツケバー氏の慎重な姿勢と、アルトマン氏のより楽観的な見解の対比は、AIコミュニティ内の思想的な分断を浮き彫りにしている。サツケバー氏が潜在的な破局に備える一方、アルトマン氏はAGIが「驚くほど社会に影響を与えない形で到来する」と示唆している。超知能を巡る競争が加速する中、こうした対立するビジョンが、人類にとって最も重要な技術的発展へのアプローチを左右し続けている。

Source: Naturalnews.com

Latest News