Anthropic ha lanciato i suoi modelli di intelligenza artificiale di nuova generazione, Claude Opus 4 e Claude Sonnet 4, segnando un importante passo avanti nell’IA che bilancia capacità all’avanguardia e distribuzione responsabile.
I modelli Claude 4, rilasciati il 22 maggio 2025, introducono un sistema di ragionamento ibrido che permette agli utenti di scegliere tra risposte quasi istantanee e un’elaborazione estesa per un ragionamento più profondo. Sia Opus 4 che Sonnet 4 sono modelli "ibridi" capaci di fornire risposte immediate o di prendersi più tempo per considerare soluzioni a un problema. Con la modalità ragionamento attivata, i modelli possono valutare più a lungo le possibili soluzioni prima di rispondere, mostrando un riepilogo "user-friendly" del loro processo di pensiero.
Anthropic ha presentato questi modelli in un contesto di forte competizione con Google e OpenAI per il titolo di "miglior modello di frontiera". Claude Opus 4, descritto come un "modello potente e di grandi dimensioni per sfide complesse", è in grado di eseguire migliaia di passaggi in ore di lavoro senza perdere la concentrazione. Anthropic afferma che Claude Opus 4 è "il miglior modello di programmazione al mondo", con prestazioni costanti su compiti complessi e di lunga durata e flussi di lavoro agentici.
Di rilievo, Anthropic ha attivato il Livello di Sicurezza IA 3 (ASL-3) per Claude Opus 4 per "limitare il rischio che Claude venga utilizzato impropriamente nello sviluppo o nell’acquisizione di armi chimiche, biologiche, radiologiche e nucleari (CBRN)". L’azienda, sostenuta da Amazon, ha dichiarato di non aver ancora stabilito se Opus 4 abbia superato la soglia che richiederebbe controlli più severi, ma di aver adottato misure precauzionali. Questa decisione è seguita a risultati interni che indicavano come Opus 4 potesse aiutare utenti con competenze limitate a produrre materiali pericolosi. In risposta, sono stati implementati oltre 100 controlli di sicurezza, tra cui monitoraggio in tempo reale, restrizioni sull’esportazione dei dati e un programma di bug bounty.
L’azienda afferma che Claude Opus 4 e Claude Sonnet 4 stanno definendo un "nuovo standard" per gli agenti IA che "possono analizzare migliaia di fonti dati, eseguire compiti di lunga durata, scrivere contenuti di qualità umana ed eseguire azioni complesse". Anthropic, fondata da ex dirigenti della ricerca di OpenAI, ha lanciato il chatbot Claude nel marzo 2023 e da allora è protagonista della crescente corsa agli armamenti dell’IA. Anthropic ha interrotto gli investimenti nei chatbot alla fine dello scorso anno, concentrandosi invece sul miglioramento delle capacità di Claude in compiti complessi come ricerca e programmazione.
Entrambi i modelli includono il "pensiero esteso", che consente a Claude di alternare tra due modalità: ragionamento profondo ed esecuzione di azioni. Claude può effettuare analisi dati secondo necessità, migliorando la precisione man mano che lavora, il che lo aiuta ad anticipare ed eseguire meglio i passaggi successivi. I modelli Claude ora possono utilizzare strumenti come la ricerca web durante il ragionamento profondo, permettendo loro di alternare tra riflessione e uso di strumenti per generare risultati migliori. Possono eseguire strumenti in parallelo, seguire istruzioni con maggiore precisione e mostrare una memoria potenziata—catturando e memorizzando informazioni chiave per garantire una migliore conservazione del contesto.
I ricavi annualizzati di Anthropic hanno raggiunto i 2 miliardi di dollari nel primo trimestre del 2025, più che raddoppiando rispetto al tasso di 1 miliardo del periodo precedente. Il prezzo di Opus 4 è fissato a 15 dollari per milione di token in input e 75 dollari per milione di token in output, mentre Sonnet 4 costa 3 dollari per l’input e 15 dollari per l’output per milione di token.
Mentre le capacità dell’IA continuano ad avanzare, l’approccio di Anthropic dimostra che è possibile sviluppare modelli potenti in modo responsabile, con misure di sicurezza che crescono insieme alle capacità stesse.