menu
close

Fostul om de știință OpenAI a planificat un buncăr pentru o lume post-AGI

Fostul șef al cercetării la OpenAI, Ilya Sutskever, a propus construirea unui buncăr apocaliptic pentru a proteja cercetătorii de potențialele pericole ce ar putea urma creării inteligenței artificiale generale (AGI). Dezvăluirea, detaliată în noua carte a lui Karen Hao, „Empire of AI”, evidențiază îngrijorările profunde ale lui Sutskever privind riscurile existențiale ale AGI, care au contribuit în cele din urmă la plecarea sa din OpenAI și la fondarea Safe Superintelligence Inc.
Fostul om de știință OpenAI a planificat un buncăr pentru o lume post-AGI

În vara anului 2023, în timpul unei întâlniri cu cercetătorii OpenAI, atunci-șeful științific Ilya Sutskever a făcut o declarație surprinzătoare: „Cu siguranță vom construi un buncăr înainte să lansăm AGI.” Această dezvăluire, relatată pentru prima dată în recenta carte a lui Karen Hao, „Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI”, oferă o perspectivă asupra temerilor apocaliptice ale uneia dintre cele mai influente figuri din domeniul inteligenței artificiale.

Sutskever, cofondator OpenAI și șef al cercetării până în mai 2024, considera că cercetătorii vor avea nevoie de protecție odată ce vor atinge inteligența artificială generală—sisteme AI cu capacități cognitive la nivel uman. Potrivit surselor citate în cartea lui Hao, propunerea buncărului avea un dublu scop: să protejeze oamenii de știință cheie de haosul geopolitic ce ar putea urma lansării AGI și, posibil, să servească drept bază de unde să influențeze evoluția sistemelor superinteligente.

„Există un grup de oameni—printre care și Ilya—care cred că dezvoltarea AGI va aduce o răpire”, a declarat un cercetător pentru Hao, referindu-se nu metaforic, ci la un eveniment ce ar schimba literalmente lumea. Sutskever le-ar fi asigurat colegilor că intrarea în buncăr va fi „opțională”, însă abordarea sa pragmatică față de astfel de pregătiri extreme i-a alarmat pe mulți din organizație.

Propunerea buncărului a apărut pe fondul tensiunilor crescânde din OpenAI privind direcția companiei. Sutskever și alții erau îngrijorați că organizația punea accentul pe expansiunea comercială în detrimentul protocoalelor de siguranță—îngrijorări care au dus, în cele din urmă, la tentativa eșuată de a-l demite pe CEO-ul Sam Altman în noiembrie 2023. După revenirea lui Altman, Sutskever a părăsit OpenAI în mai 2024 pentru a fonda Safe Superintelligence (SSI) împreună cu Daniel Gross și Daniel Levy.

SSI, care a atras finanțări de 3 miliarde de dolari și a atins o evaluare de 32 de miliarde de dolari în aprilie 2025, reprezintă angajamentul continuu al lui Sutskever față de siguranța AI. Spre deosebire de abordarea diversificată a OpenAI, SSI se concentrează exclusiv pe dezvoltarea unei superinteligențe sigure, Sutskever declarând: „Primul nostru produs va fi superinteligența sigură și nu vom face nimic altceva până atunci.”

Contrastul dintre abordarea prudentă a lui Sutskever și viziunea mai optimistă a lui Altman evidențiază diviziunea ideologică din comunitatea AI. În timp ce Sutskever se pregătea pentru o posibilă catastrofă, Altman a sugerat că AGI va veni cu „surprinzător de puțin impact asupra societății”. Pe măsură ce cursa spre superinteligență se accelerează, aceste viziuni concurente continuă să modeleze modul în care omenirea abordează ceea ce ar putea fi cea mai importantă dezvoltare tehnologică din istoria sa.

Source: Naturalnews.com

Latest News