menu
close

Google presenterar Gemini 2.5 Deep Think på I/O 2025

Google tillkännagav betydande förbättringar av sina Gemini 2.5 AI-modeller på I/O 2025 och introducerade Deep Think, ett experimentellt förbättrat resonemangsläge som gör det möjligt för modellerna att överväga flera hypoteser innan de svarar. Företaget har integrerat LearnLM direkt i Gemini 2.5, vilket enligt Googles egna tester gör det till världens ledande modell för lärande. Gemini 2.5 Flash, en ny förhandsversion optimerad för hastighet och effektivitet, blir tillgänglig för alla i Gemini-appen och för utvecklare via Google AI Studio i början av juni.
Google presenterar Gemini 2.5 Deep Think på I/O 2025

Google har presenterat stora uppdateringar av sin Gemini AI-plattform på den årliga utvecklarkonferensen I/O 2025 och visade upp framsteg inom resonemangsförmåga och utbildningsapplikationer.

Huvudnumret var introduktionen av Deep Think, ett experimentellt förbättrat resonemangsläge för Gemini 2.5 Pro. Denna nya funktion använder forskningstekniker som gör det möjligt för modellen att överväga flera hypoteser innan den svarar. Enligt Google uppnår 2.5 Pro Deep Think imponerande resultat på 2025 års USAMO, ett av de svåraste matteproven, och toppar även LiveCodeBench, ett utmanande riktmärke för tävlingsprogrammering.

Google meddelade också att LearnLM nu är direkt integrerat i Gemini 2.5, vilket gör den till "världens ledande modell för lärande". Som framgår av Googles senaste rapport överträffade Gemini 2.5 Pro konkurrenterna i samtliga kategorier inom lärandets vetenskapliga principer. Modellen toppar nu även populära topplistor i verkliga applikationer, såsom WebDev Arena för kodning och LMArena, som mäter mänskliga preferenser för modellsvar. Tack vare integrationen med LearnLM, Googles modellfamilj för utbildning, framhålls 2.5 Pro som den ledande modellen för lärande och föredras av lärare för sin undervisningseffektivitet.

Googles vd Sundar Pichai lyfte fram den snabba utvecklingen av Gemini-modellerna och noterade att "Gemini 2.5 Pro sopar banan med LMArena-listan i alla kategorier." Företaget visade också upp Gemini 2.5 Flash, som beskrivs som en "kraftfull och mest effektiva arbetsmodell" och har blivit "otroligt populär bland utvecklare som uppskattar dess hastighet och låga kostnad." Nya 2.5 Flash presterar bättre på viktiga riktmärken för resonemang, multimodalitet, kod och långa kontexter, och placerar sig på andra plats efter 2.5 Pro på LMArena-listan.

Gemini 2.5 Flash är nu tillgänglig för alla i Gemini-appen, med allmän tillgänglighet i Google AI Studio för utvecklare och Vertex AI för företag i början av juni. Gemini 2.5 Pro lanseras kort därefter. Google tillskriver denna utveckling "det outtröttliga arbetet från team över hela Google för att förbättra våra teknologier och utveckla och lansera dem på ett säkert och ansvarsfullt sätt."

Bakom dessa framsteg står Ironwood, Googles sjunde generations Tensor Processing Unit (TPU), som företaget beskriver som sin "mest kraftfulla, kapabla och energieffektiva TPU hittills." Ironwood är specialbyggd för att driva tänkande, inferentiella AI-modeller i stor skala och har stöttat Googles mest krävande AI-tränings- och produktionsarbetslaster.

Med dessa uppdateringar fortsätter Google att tänja på gränserna för AI-resonemang och utbildningsmöjligheter, sätter nya riktmärken för prestanda och betonar samtidigt ansvarsfull utveckling och implementering.

Source: Blog

Latest News