menu
close

Bekas Saintis OpenAI Rancang Bina Bunker untuk Dunia Pasca-AGI

Bekas ketua saintis OpenAI, Ilya Sutskever, pernah mencadangkan pembinaan bunker kiamat bagi melindungi penyelidik daripada potensi bahaya selepas terciptanya kecerdasan buatan umum (AGI). Pendedahan ini, yang diperincikan dalam buku baharu Karen Hao 'Empire of AI', menyerlahkan kebimbangan mendalam Sutskever terhadap risiko eksistensi AGI, yang akhirnya mendorong beliau meninggalkan OpenAI dan menubuhkan Safe Superintelligence Inc.
Bekas Saintis OpenAI Rancang Bina Bunker untuk Dunia Pasca-AGI

Pada musim panas 2023, dalam satu mesyuarat bersama para penyelidik OpenAI, ketika itu ketua saintis Ilya Sutskever membuat satu pengumuman mengejutkan: "Kita pasti akan membina bunker sebelum kita melancarkan AGI." Pendedahan ini, yang pertama kali dilaporkan dalam buku Karen Hao yang baru diterbitkan "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI", memberikan gambaran tentang kebimbangan apokaliptik yang dipegang oleh salah satu tokoh paling berpengaruh dalam bidang AI.

Sutskever, yang merupakan pengasas bersama OpenAI dan berkhidmat sebagai ketua saintis sehingga Mei 2024, percaya bahawa para penyelidik memerlukan perlindungan sebaik sahaja mereka mencapai kecerdasan buatan umum—sistem AI dengan keupayaan kognitif setaraf manusia. Menurut sumber yang dipetik dalam buku Hao, cadangan bunker Sutskever mempunyai dua tujuan: untuk melindungi saintis utama daripada kekacauan geopolitik yang mungkin berlaku selepas pelancaran AGI dan berfungsi sebagai pangkalan untuk mempengaruhi bagaimana sistem superintelligence akan berkembang.

"Terdapat satu kumpulan individu—Ilya salah seorang daripadanya—yang percaya bahawa pembinaan AGI akan membawa kepada satu peristiwa besar," kata seorang penyelidik kepada Hao, merujuk bukan secara metafora tetapi kepada kejadian yang benar-benar mengubah dunia. Sutskever dilaporkan meyakinkan rakan sekerja bahawa memasuki bunker itu adalah "pilihan", namun pendekatan beliau yang begitu serius terhadap persiapan ekstrem ini membimbangkan ramai dalam organisasi tersebut.

Cadangan bunker ini timbul di tengah-tengah ketegangan yang semakin memuncak di OpenAI mengenai hala tuju syarikat. Sutskever dan beberapa yang lain bimbang organisasi itu lebih mengutamakan pengembangan komersial berbanding protokol keselamatan—kebimbangan yang akhirnya membawa kepada percubaan gagal untuk menyingkirkan CEO Sam Altman pada November 2023. Selepas Altman kembali ke jawatan tersebut, Sutskever meninggalkan OpenAI pada Mei 2024 untuk menubuhkan Safe Superintelligence (SSI) bersama Daniel Gross dan Daniel Levy.

SSI, yang telah berjaya mengumpul dana sebanyak $3 bilion dan mencapai penilaian $32 bilion setakat April 2025, mewakili komitmen berterusan Sutskever terhadap keselamatan AI. Berbeza dengan pendekatan OpenAI yang pelbagai, SSI memberi tumpuan sepenuhnya kepada pembangunan superintelligence yang selamat, dengan Sutskever menyatakan, "Produk pertama kami ialah superintelligence yang selamat, dan kami tidak akan lakukan apa-apa selain itu sehingga ia tercapai."

Perbezaan antara pendekatan berhati-hati Sutskever dan pandangan lebih optimistik Altman menyerlahkan jurang ideologi dalam komuniti AI. Sementara Sutskever bersedia menghadapi kemungkinan bencana, Altman pula berpendapat AGI akan tiba dengan "kesan masyarakat yang mengejutkan kecil." Ketika perlumbaan ke arah superintelligence semakin rancak, visi yang bersaing ini terus membentuk cara manusia mendekati pembangunan teknologi yang mungkin paling berimpak dalam sejarah.

Source: Naturalnews.com

Latest News