menu
close

I giganti dell’IA si scontrano sulle strategie di gestione dei rischi esistenziali

Le principali aziende di intelligenza artificiale stanno adottando approcci divergenti nella gestione dei rischi esistenziali posti dai sistemi IA avanzati. Anthropic sostiene la pianificazione degli scenari peggiori, mentre OpenAI punta su iniziative di trasparenza attraverso il nuovo Safety Evaluations Hub. Google DeepMind ha invece scelto un approccio più metodico e incrementale con il suo completo Frontier Safety Framework. Queste differenze strategiche evidenziano la tensione tra il rapido progresso dell’IA e l’implementazione di solide misure di sicurezza.
I giganti dell’IA si scontrano sulle strategie di gestione dei rischi esistenziali

L’industria dell’intelligenza artificiale sta assistendo a una profonda spaccatura tra le aziende leader su come affrontare i potenziali rischi esistenziali derivanti da sistemi IA sempre più potenti.

Anthropic, valutata 61 miliardi di dollari e sostenuta da Amazon, si è posizionata come l’attore più cauto, avvertendo costantemente dei pericoli legati a capacità IA incontrollate che superano le misure di sicurezza. Il CEO Dario Amodei si è espresso più volte sulla necessità di pianificare gli scenari peggiori, dichiarando recentemente che i modelli "diventeranno presto migliori di noi in quasi tutto". La politica di scaling responsabile dell’azienda prevede misure di sicurezza fisica rafforzate, come controlli negli uffici per dispositivi nascosti e un consiglio esecutivo per la valutazione dei rischi dei modelli più potenti prima del rilascio.

OpenAI, recentemente valutata 300 miliardi di dollari, ha scelto una strada diversa, puntando sulle iniziative di trasparenza. Nel maggio 2025, l’azienda ha lanciato il Safety Evaluations Hub, una piattaforma web che mostra come i suoi modelli si comportano in vari test di sicurezza relativi alla generazione di contenuti dannosi, jailbreak e allucinazioni. OpenAI si è impegnata ad aggiornare regolarmente queste metriche con ogni rilascio importante di nuovi modelli. Tuttavia, gli ultimi aggiornamenti al Preparedness Framework hanno sollevato preoccupazioni, poiché l’azienda ha indicato che potrebbe "adattare" i requisiti di sicurezza se i concorrenti dovessero rilasciare sistemi ad alto rischio senza protezioni simili.

Google DeepMind ha adottato quello che appare come l’approccio più metodico, pubblicando nell’aprile 2025 un dettagliato documento di 145 pagine sulla sicurezza dell’AGI. Il Frontier Safety Framework dell’azienda classifica i rischi IA in quattro aree: uso improprio, disallineamento, incidenti e rischi strutturali. La strategia di DeepMind punta su un progresso incrementale, con solidi protocolli di formazione, monitoraggio e sicurezza. L’azienda ha istituito un AGI Safety Council guidato dal co-fondatore Shane Legg e collabora con organizzazioni non profit di ricerca sulla sicurezza dell’IA come Apollo e Redwood Research.

Queste strategie divergenti riflettono la tensione di fondo nel settore dell’IA tra lo sviluppo rapido delle capacità e l’implementazione di misure di sicurezza robuste. Man mano che i sistemi IA si avvicinano a prestazioni di livello umano in diversi ambiti, appare sempre più evidente la necessità di un consorzio di sicurezza trasversale al settore, supportato da parametri di riferimento trasparenti.

Secondo gli esperti, senza standard di sicurezza coordinati, la pressione competitiva per distribuire rapidamente modelli avanzati potrebbe portare le aziende a compromettere le misure di sicurezza. Come ha osservato Jack Clark di Anthropic, il settore necessita di meccanismi più forti "per identificare e mitigare i rischi, promuovendo uno sviluppo responsabile dell’IA" prima che questi potenti sistemi vengano distribuiti su larga scala.

Source:

Latest News