menu
close

OpenAI Eski Bilim İnsanı, AGI Sonrası Dünya İçin Sığınak Planladı

OpenAI'nin eski baş bilim insanı Ilya Sutskever, yapay genel zekânın (AGI) oluşturulmasının ardından araştırmacıları potansiyel tehlikelerden korumak amacıyla bir kıyamet sığınağı inşa etmeyi önerdi. Karen Hao'nun yeni kitabı 'Empire of AI'da detaylandırılan bu açıklama, Sutskever'in AGI'nin varoluşsal risklerine dair derin endişelerini gözler önüne seriyor. Bu endişeler, Sutskever'in OpenAI'dan ayrılıp Safe Superintelligence Inc.'i kurmasına da zemin hazırladı.
OpenAI Eski Bilim İnsanı, AGI Sonrası Dünya İçin Sığınak Planladı

2023 yazında, OpenAI araştırmacılarıyla yapılan bir toplantıda dönemin baş bilim insanı Ilya Sutskever çarpıcı bir açıklama yaptı: "AGI'yi piyasaya sürmeden önce kesinlikle bir sığınak inşa edeceğiz." Karen Hao'nun yeni yayımlanan "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI" adlı kitabında ilk kez ortaya çıkan bu açıklama, yapay zekâ dünyasının en etkili isimlerinden birinin kıyamet senaryolarına dair endişelerine ışık tutuyor.

OpenAI'nin kurucularından olan ve Mayıs 2024'e kadar baş bilim insanı olarak görev yapan Sutskever, araştırmacıların insan seviyesinde bilişsel yeteneklere sahip yapay genel zekâya ulaştıklarında korunmaya ihtiyaç duyacaklarına inanıyordu. Hao'nun kitabında yer alan kaynaklara göre, Sutskever'in sığınak önerisinin iki amacı vardı: AGI'nin piyasaya sürülmesinin ardından yaşanabilecek jeopolitik kaostan kilit bilim insanlarını korumak ve aynı zamanda süper zekâ sistemlerinin nasıl evrileceğine etki edebilecek bir üs olarak kullanmak.

Bir araştırmacı, Hao'ya "AGI'nin bir tür kıyamet getireceğine inanan bir grup insan var; Ilya da bunlardan biri," diyerek, bu inancın mecazi değil, kelimenin tam anlamıyla dünyayı değiştirecek bir olay olarak görüldüğünü belirtti. Sutskever'in, sığınağa girmeyi "isteğe bağlı" olarak tanımladığı, ancak böylesine uç bir hazırlığı son derece doğal bir şekilde ele almasının organizasyon içinde birçok kişiyi tedirgin ettiği bildirildi.

Sığınak önerisi, OpenAI'da şirketin gidişatıyla ilgili artan gerilimlerin ortasında gündeme geldi. Sutskever ve bazı çalışma arkadaşları, kuruluşun güvenlik protokollerinden ziyade ticari büyümeye öncelik verdiğinden endişe ediyordu—ki bu kaygılar, Kasım 2023'te CEO Sam Altman'ı görevden alma girişiminin başarısızlıkla sonuçlanmasına yol açtı. Altman'ın yeniden göreve getirilmesinin ardından Sutskever, Mayıs 2024'te Daniel Gross ve Daniel Levy ile birlikte Safe Superintelligence (SSI) adlı şirketi kurmak üzere OpenAI'dan ayrıldı.

SSI, Nisan 2025 itibarıyla 3 milyar dolar yatırım alarak 32 milyar dolarlık bir değerlemeye ulaştı ve Sutskever'in yapay zekâ güvenliğine olan bağlılığını sürdürüyor. OpenAI'nin çeşitlendirilmiş yaklaşımının aksine, SSI yalnızca güvenli süper zekâ geliştirmeye odaklanıyor. Sutskever, "İlk ürünümüz güvenli süper zekâ olacak ve o zamana kadar başka hiçbir şey yapmayacağız," diyerek bu kararlılığı vurguladı.

Sutskever'in temkinli yaklaşımı ile Altman'ın daha iyimser bakış açısı arasındaki fark, yapay zekâ topluluğu içindeki ideolojik ayrımı gözler önüne seriyor. Sutskever olası bir felakete hazırlanırken, Altman AGI'nin "şaşırtıcı derecede az toplumsal etkiyle" geleceğini öne sürüyor. Süper zekâya giden yarış hızlanırken, bu karşıt vizyonlar insanlığın en önemli teknolojik gelişimine nasıl yaklaşacağını şekillendirmeye devam ediyor.

Source: Naturalnews.com

Latest News