Google DeepMind pracuje na transformácii svojho najpokročilejšieho multimodálneho základného modelu Gemini 2.5 Pro na takzvaný „model sveta“ – AI systém schopný porozumieť a simulovať aspekty reálneho sveta spôsobom, ktorý napodobňuje ľudské kognitívne procesy.
Ako bolo oznámené na Google I/O 2025, tento ambiciózny projekt má za cieľ vytvoriť AI, ktorá dokáže plánovať a predstavovať si nové zážitky modelovaním fungovania sveta. Podľa generálneho riaditeľa DeepMind Demisa Hassabisa táto schopnosť predstavuje zásadný pokrok v umelej inteligencii, ktorý presahuje jednoduchú klasifikáciu a predikciu.
„Preto pracujeme na rozšírení nášho najlepšieho multimodálneho základného modelu Gemini 2.5 Pro, aby sa stal ‚modelom sveta‘, ktorý dokáže plánovať a predstavovať si nové zážitky tým, že chápe a simuluje aspekty sveta, podobne ako to robí mozog,“ vysvetlil Hassabis v nedávnom blogovom príspevku.
Google už vidí prvé dôkazy týchto schopností modelovania sveta v tom, ako Gemini dokáže reprezentovať a simulovať prírodné prostredia, chápať intuitívnu fyziku prostredníctvom modelu Veo a učiť roboty uchopovať predmety a plniť pokyny vďaka Gemini Robotics.
Spoločnosť označuje tento vývoj za kľúčový krok smerom k vytvoreniu „univerzálneho AI asistenta“ – inteligentného systému, ktorý rozumie kontextu a dokáže plánovať a konať na akomkoľvek zariadení. Konečnou víziou Googlu je premeniť aplikáciu Gemini na asistenta, ktorý zvládne každodenné úlohy, administratívnu prácu a poskytne personalizované odporúčania.
Táto schopnosť modelu sveta nadväzuje na už pôsobivé schopnosti Gemini 2.5 Pro v oblasti uvažovania. Model v súčasnosti vedie v benchmarkoch pre zložité matematické, vedecké a programátorské úlohy a je na prvom mieste v rebríčkoch LMArena a WebDev Arena, ktoré hodnotia preferencie používateľov pri interakcii s AI.
Google plánuje tieto schopnosti modelu sveta integrovať s technológiami z projektov Mariner a Astra, ktoré sa zameriavajú na multitasking a vizuálne porozumenie. Vylepšený Gemini 2.5 Pro by mal byť všeobecne dostupný v júni 2025 po ukončení aktuálnej fázy náhľadu.