menu
close

Schmidt avertizează că cursa înarmării cu AI ar putea declanșa atacuri asupra centrelor de date

Fostul CEO Google, Eric Schmidt, a avertizat că escaladrea cursei înarmării cu inteligență artificială dintre SUA și China ar putea conduce la conflicte globale pentru controlul centrelor de date și al resurselor critice. Într-un discurs recent la TED, Schmidt a prezentat un scenariu ipotetic în care națiunile ar putea recurge la sabotaj sau chiar atacuri fizice asupra infrastructurii AI rivale pentru a preveni să fie depășite în cursa pentru superinteligență. Ca alternativă la o abordare periculoasă de tip 'Proiect Manhattan' pentru dezvoltarea AI, Schmidt și colegii săi propun un cadru numit Mutual Assured AI Malfunction (MAIM) pentru a descuraja dominația unilaterală.
Schmidt avertizează că cursa înarmării cu AI ar putea declanșa atacuri asupra centrelor de date

Cursa globală pentru obținerea unor sisteme AI superinteligente generează tensiuni geopolitice care ar putea escalada de la competiție tehnologică la conflict real, potrivit unor avertismente alarmante lansate de fostul CEO Google, Eric Schmidt.

În discursul său TED din mai 2025, Schmidt a explicat cum cursa înarmării cu AI dintre Statele Unite și China seamănă tot mai mult cu impasul nuclear din perioada Războiului Rece. El a avertizat că, dacă o națiune începe să avanseze semnificativ în dezvoltarea sistemelor superinteligente, țara rămasă în urmă ar putea recurge la măsuri din ce în ce mai disperate – inclusiv sabotaj sau chiar bombardarea centrelor de date – pentru a preveni să fie depășită definitiv.

Schmidt a subliniat că abordarea Chinei, bazată pe dezvoltarea open-source a AI, reprezintă un risc strategic pentru SUA, care favorizează în prezent modele AI închise și proprietare. „Deoarece China își împărtășește deschis progresele în AI, SUA beneficiază de acestea, dar riscă să rămână în urmă într-o cursă globală open-source”, a explicat Schmidt. Această dinamică ar putea intensifica competiția, în care prima țară care atinge superinteligența ar obține o dominație ireversibilă prin efecte de rețea.

În loc să urmeze o abordare periculoasă de tip 'Proiect Manhattan' pentru dezvoltarea AI, Schmidt și coautorii Alexandr Wang și Dan Hendrycks au propus, într-o lucrare din martie 2025, un cadru numit Mutual Assured AI Malfunction (MAIM). Acest model de descurajare cibernetică, inspirat din principiile Războiului Rece, ar stabili că orice încercare agresivă de a obține dominație unilaterală în AI ar declanșa măsuri preventive din partea rivalilor.

„Ceea ce începe ca o cursă pentru o superarmă și control global riscă să provoace contramăsuri ostile și escaladarea tensiunilor, subminând astfel chiar stabilitatea pe care strategia pretinde că o asigură”, au scris Schmidt și colegii săi. Miza este existențială – scenariile variază de la sabotaj cibernetic asupra infrastructurii AI până la atacuri preventive ce amintesc de tensiunile Războiului Rece.

Deși unii critici, inclusiv consiliera pentru securitate națională Evelyn Green, susțin că MAIM nu dispune de mecanisme aplicabile comparabile cu tratatele de neproliferare nucleară, Schmidt consideră că descurajarea, combinată cu transparența și cooperarea internațională, oferă cea mai bună cale de gestionare a riscurilor fără precedent generate de sistemele AI superinteligente.

Source: Naturalnews.com

Latest News