Google ha presentato importanti aggiornamenti alla sua piattaforma di intelligenza artificiale Gemini durante la conferenza annuale per sviluppatori I/O 2025, mostrando progressi nelle capacità di ragionamento e nelle applicazioni educative.
L’annuncio principale è stato l’introduzione di Deep Think, una modalità sperimentale di ragionamento avanzato per Gemini 2.5 Pro. Questa nuova funzionalità utilizza tecniche di ricerca che permettono al modello di valutare più ipotesi prima di fornire una risposta. Secondo Google, 2.5 Pro Deep Think ottiene risultati impressionanti all’USAMO 2025, uno dei benchmark matematici più difficili, e si posiziona in testa su LiveCodeBench, un difficile test per la programmazione a livello competitivo.
Google ha inoltre annunciato di aver integrato LearnLM direttamente in Gemini 2.5, posizionandolo come "il modello leader mondiale per l’apprendimento". Come dettagliato nell’ultimo report di Google, Gemini 2.5 Pro ha superato i concorrenti in tutte le categorie dei principi della scienza dell’apprendimento. Il modello ora domina le principali classifiche reali come WebDev Arena per il coding e LMArena, che misura la preferenza umana per le risposte dei modelli. Grazie all’integrazione con LearnLM, la famiglia di modelli Google ottimizzati per l’educazione, 2.5 Pro viene presentato come il modello di riferimento per l’apprendimento, preferito dagli educatori per la sua efficacia didattica.
Il CEO di Google Sundar Pichai ha sottolineato il rapido progresso dei modelli Gemini, osservando che "Gemini 2.5 Pro domina la classifica LMArena in tutte le categorie". L’azienda ha inoltre presentato Gemini 2.5 Flash, descritto come un "modello potente e altamente efficiente" che è stato "incredibilmente popolare tra gli sviluppatori che ne apprezzano la velocità e il basso costo". Il nuovo 2.5 Flash migliora i risultati nei principali benchmark di ragionamento, multimodalità, codice e contesto esteso, posizionandosi secondo solo a 2.5 Pro nella classifica LMArena.
Gemini 2.5 Flash è ora disponibile per tutti nell’app Gemini, mentre la disponibilità generale per gli sviluppatori tramite Google AI Studio e per le aziende tramite Vertex AI arriverà a inizio giugno. Gemini 2.5 Pro seguirà a breve. Google attribuisce questi progressi "all’instancabile lavoro dei team di Google per migliorare le nostre tecnologie e svilupparle e rilasciarle in modo sicuro e responsabile".
A supportare questi progressi c’è Ironwood, la settima generazione di Tensor Processing Unit (TPU) di Google, che l’azienda descrive come la sua TPU "più potente, capace ed efficiente dal punto di vista energetico". Ironwood è progettata appositamente per alimentare modelli di IA inferenziale e di ragionamento su larga scala e ha già supportato i carichi di lavoro di addestramento e servizio di IA più esigenti di Google.
Con questi aggiornamenti, Google continua a spingere i confini del ragionamento e delle capacità educative dell’IA, fissando nuovi standard di prestazioni e sottolineando lo sviluppo e il rilascio responsabile delle tecnologie.