Googles årlige udviklerkonference understregede virksomhedens fortsatte engagement i AI-innovation, hvor Project Astra og AI-tilstand blev hovedattraktionerne på I/O 2025.
Project Astra, der første gang blev introduceret sidste år som en forskningsprototype, har udviklet sig til en kraftfuld universel AI-assistent, der kan forstå verden omkring brugerne. Gemini Live inkorporerer nu Project Astras kamera- og skærmdelingsfunktioner, hvilket gør det muligt for brugerne at interagere med AI på mere intuitive måder via deres enheder. Disse funktioner rulles ud i denne uge til alle brugere på iOS og Android, hvilket muliggør næsten realtids mundtlige samtaler med Gemini, mens der streames video fra smartphonekameraer eller skærme. I de kommende uger vil Gemini Live blive integreret endnu dybere i Googles økosystem, så brugerne kan få rutevejledning fra Maps, oprette kalenderbegivenheder og lave huskelister med Tasks.
AI-tilstand, Googles AI-drevne søgefunktion, rulles nu ud til alle i USA direkte i Søgning, med mulighed for at tilmelde sig via Labs for øjeblikkelig adgang. For brugere, der ønsker mere dybdegående svar, introducerer Google dybdegående forskningsmuligheder i AI-tilstand via Deep Search. Denne kraftfulde funktion kan udføre hundredvis af søgninger, sammenholde information fra forskellige kilder og skabe ekspert-niveau rapporter med fuld kildeangivelse på få minutter, hvilket potentielt kan spare brugerne for mange timers research.
En anden vigtig nyhed er integrationen af Project Astras funktioner i AI-tilstand via Search Live, som lanceres til sommer. Denne funktion gør det muligt for brugerne at føre samtaler med Søgning om det, de ser i realtid ved hjælp af deres kamera. Når man bruger AI-tilstand eller Lens, kan brugerne trykke på "Live"-knappen for at stille spørgsmål om det, de ser, hvor Project Astra streamer live video og lyd til en AI-model, der svarer med minimal forsinkelse.
Google bringer også agentbaserede funktioner fra Project Mariner til AI-tilstand i Labs, begyndende med billetter til begivenheder, restaurantreservationer og lokale aftaler. I en demonstration fandt og reserverede AI-tilstand hurtigt billetter til en baseballkamp og førte brugeren direkte til betaling på få øjeblikke—et eksempel på, hvordan AI kan håndtere komplekse, flertrinsopgaver uden besvær.
Ifølge Google markerer disse udviklinger en ny fase i AI-platformens udvikling, hvor årtiers forskning nu bliver til virkelighed for mennesker, virksomheder og samfund verden over. Med betydelige opgraderinger til både Gemini 2.5 Pro og Flash-modellerne afspejler Googles I/O 2025-annonceringer virksomhedens vision om at skabe mere intuitive, kompetente og personlige AI-oplevelser på tværs af hele produktsortimentet.