menu
close

Google esittelee Gemini 2.5 Deep Thinkin I/O 2025 -tapahtumassa

Google julkisti merkittäviä parannuksia Gemini 2.5 -tekoälymalleihin I/O 2025 -tapahtumassa. Uutuutena esiteltiin Deep Think, kokeellinen tehostettu päättelytila, jonka avulla malli voi harkita useita hypoteeseja ennen vastaamista. LearnLM on nyt integroitu suoraan Gemini 2.5:een, minkä ansiosta siitä on tullut Googlen vertailujen mukaan maailman johtava oppimismalli. Gemini 2.5 Flash, uusi nopeuteen ja tehokkuuteen optimoitu esiversio, tulee kaikkien saataville Gemini-sovelluksessa sekä kehittäjille Google AI Studion kautta kesäkuun alussa.
Google esittelee Gemini 2.5 Deep Thinkin I/O 2025 -tapahtumassa

Google on esitellyt merkittäviä päivityksiä Gemini-tekoälyalustaansa vuosittaisessa I/O 2025 -kehittäjätapahtumassaan, tuoden esiin edistysaskeleita päättelykyvyissä ja opetussovelluksissa.

Tapahtuman keskeisin julkistus oli Deep Thinkin lanseeraus – kokeellinen tehostettu päättelytila Gemini 2.5 Pro -mallille. Tämä uusi ominaisuus hyödyntää tutkimusmenetelmiä, joiden ansiosta malli voi harkita useita hypoteeseja ennen vastaamista. Googlen mukaan 2.5 Pro Deep Think saavuttaa vaikuttavia tuloksia vuoden 2025 USAMO:ssa, joka on yksi haastavimmista matematiikan vertailuarvoista, ja johtaa myös LiveCodeBenchissä, joka mittaa kilpailutasoista koodausosaamista.

Google kertoi myös, että LearnLM on nyt integroitu suoraan Gemini 2.5:een, mikä tekee siitä "maailman johtavan oppimismallin". Googlen tuoreimman raportin mukaan Gemini 2.5 Pro päihitti kilpailijat kaikissa oppimistieteiden periaatteiden kategorioissa. Malli on nyt ykkösenä myös suosituilla tosielämän tulostaulukoilla, kuten WebDev Arena koodauksessa ja LMArena, joka mittaa ihmisten mieltymyksiä mallin vastauksissa. LearnLM-integraation ansiosta, joka on Googlen opetukseen hienosäädettyjen mallien perhe, 2.5 Pro:ta pidetään nyt johtavana oppimismallina, jota opettajat suosivat sen opetustehokkuuden vuoksi.

Googlen toimitusjohtaja Sundar Pichai korosti Gemini-mallien nopeaa kehitystä todeten, että "Gemini 2.5 Pro hallitsee LMArena-tulostaulua kaikissa kategorioissa". Yritys esitteli myös Gemini 2.5 Flashin, jota kuvailtiin "tehokkaaksi ja erittäin energiatehokkaaksi työjuhdamalliksi", joka on ollut "erittäin suosittu kehittäjien keskuudessa nopeutensa ja edullisuutensa ansiosta". Uusi 2.5 Flash parantaa keskeisiä päättely-, multimodaalisuus-, koodaus- ja pitkän kontekstin vertailuarvoja ja sijoittuu LMArena-tulostaululla toiseksi heti 2.5 Pron jälkeen.

Gemini 2.5 Flash on nyt kaikkien saatavilla Gemini-sovelluksessa, ja yleinen saatavuus kehittäjille Google AI Studiossa sekä yrityksille Vertex AI:ssa alkaa kesäkuun alussa. Gemini 2.5 Pro seuraa pian perässä. Google kiittää tästä kehityksestä "Googlen tiimien väsymätöntä työtä teknologioidemme kehittämiseksi ja niiden turvalliseksi sekä vastuulliseksi julkaisemiseksi".

Näiden edistysaskeleiden taustalla toimii Ironwood, Googlen seitsemännen sukupolven Tensor Processing Unit (TPU), jota yritys kuvaa "tehokkaimmaksi, kyvykkäimmäksi ja energiatehokkaimmaksi TPU:ksi tähän mennessä". Ironwood on suunniteltu erityisesti laajamittaisten päättely- ja inferenssitekoälymallien pyörittämiseen, ja se on tukenut Googlen vaativimpia tekoälyn koulutus- ja palvelukuormia.

Näillä päivityksillä Google jatkaa tekoälyn päättely- ja opetustaitojen rajoja venyttämistä, asettaen uusia suorituskyvyn vertailuarvoja ja korostaen samalla vastuullista kehitystä ja käyttöönottoa.

Source: Blog

Latest News