Google on esitellyt merkittäviä päivityksiä Gemini-tekoälyalustaansa vuosittaisessa I/O 2025 -kehittäjätapahtumassaan, tuoden esiin edistysaskeleita päättelykyvyissä ja opetussovelluksissa.
Tapahtuman keskeisin julkistus oli Deep Thinkin lanseeraus – kokeellinen tehostettu päättelytila Gemini 2.5 Pro -mallille. Tämä uusi ominaisuus hyödyntää tutkimusmenetelmiä, joiden ansiosta malli voi harkita useita hypoteeseja ennen vastaamista. Googlen mukaan 2.5 Pro Deep Think saavuttaa vaikuttavia tuloksia vuoden 2025 USAMO:ssa, joka on yksi haastavimmista matematiikan vertailuarvoista, ja johtaa myös LiveCodeBenchissä, joka mittaa kilpailutasoista koodausosaamista.
Google kertoi myös, että LearnLM on nyt integroitu suoraan Gemini 2.5:een, mikä tekee siitä "maailman johtavan oppimismallin". Googlen tuoreimman raportin mukaan Gemini 2.5 Pro päihitti kilpailijat kaikissa oppimistieteiden periaatteiden kategorioissa. Malli on nyt ykkösenä myös suosituilla tosielämän tulostaulukoilla, kuten WebDev Arena koodauksessa ja LMArena, joka mittaa ihmisten mieltymyksiä mallin vastauksissa. LearnLM-integraation ansiosta, joka on Googlen opetukseen hienosäädettyjen mallien perhe, 2.5 Pro:ta pidetään nyt johtavana oppimismallina, jota opettajat suosivat sen opetustehokkuuden vuoksi.
Googlen toimitusjohtaja Sundar Pichai korosti Gemini-mallien nopeaa kehitystä todeten, että "Gemini 2.5 Pro hallitsee LMArena-tulostaulua kaikissa kategorioissa". Yritys esitteli myös Gemini 2.5 Flashin, jota kuvailtiin "tehokkaaksi ja erittäin energiatehokkaaksi työjuhdamalliksi", joka on ollut "erittäin suosittu kehittäjien keskuudessa nopeutensa ja edullisuutensa ansiosta". Uusi 2.5 Flash parantaa keskeisiä päättely-, multimodaalisuus-, koodaus- ja pitkän kontekstin vertailuarvoja ja sijoittuu LMArena-tulostaululla toiseksi heti 2.5 Pron jälkeen.
Gemini 2.5 Flash on nyt kaikkien saatavilla Gemini-sovelluksessa, ja yleinen saatavuus kehittäjille Google AI Studiossa sekä yrityksille Vertex AI:ssa alkaa kesäkuun alussa. Gemini 2.5 Pro seuraa pian perässä. Google kiittää tästä kehityksestä "Googlen tiimien väsymätöntä työtä teknologioidemme kehittämiseksi ja niiden turvalliseksi sekä vastuulliseksi julkaisemiseksi".
Näiden edistysaskeleiden taustalla toimii Ironwood, Googlen seitsemännen sukupolven Tensor Processing Unit (TPU), jota yritys kuvaa "tehokkaimmaksi, kyvykkäimmäksi ja energiatehokkaimmaksi TPU:ksi tähän mennessä". Ironwood on suunniteltu erityisesti laajamittaisten päättely- ja inferenssitekoälymallien pyörittämiseen, ja se on tukenut Googlen vaativimpia tekoälyn koulutus- ja palvelukuormia.
Näillä päivityksillä Google jatkaa tekoälyn päättely- ja opetustaitojen rajoja venyttämistä, asettaen uusia suorituskyvyn vertailuarvoja ja korostaen samalla vastuullista kehitystä ja käyttöönottoa.