menu
close

Google DeepMinds vd förutspår AGI till 2030 och visar upp banbrytande AI-system

Vid ett betydelsefullt medieframträdande den 21 maj 2025 presenterade Google DeepMinds vd Demis Hassabis sin vision för artificiell generell intelligens (AGI) och förutspådde dess ankomst omkring 2030. Under intervjun demonstrerade Hassabis Googles senaste AI-genombrott, inklusive Astra, Genie 2 och SIMA, och betonade företagets framsteg mot mer avancerade AI-system med agentliknande förmågor. Google underströk sitt åtagande att utveckla AGI på ett säkert och ansvarsfullt sätt, samtidigt som man erkände den snabba utvecklingstakten inom AI.
Google DeepMinds vd förutspår AGI till 2030 och visar upp banbrytande AI-system

Google DeepMinds vd Demis Hassabis tror att artificiell generell intelligens (AGI) sannolikt kommer att nås strax före eller efter 2030, enligt uttalanden han gjorde under ett stort medieframträdande den 21 maj 2025.

Under evenemanget, där Googles medgrundare Sergey Brin oväntat dök upp, diskuterade Hassabis tidslinjen för att uppnå AGI—vilket allmänt förstås som AI som matchar eller överträffar de flesta mänskliga förmågor. Medan Brin förutspådde att AGI skulle komma strax före 2030, antydde Hassabis att det kan ske något senare, och skämtade om att Brin bara behöver ringa för att det ska hända, medan Hassabis själv måste lista ut hur det faktiskt ska levereras.

Hassabis, som tilldelades en del av Nobelpriset i kemi 2024 för sitt arbete med AlphaFold, erkände den otroliga utvecklingen inom AI de senaste åren. "Vi har arbetat med detta i mer än 20 år, och vi har haft en konsekvent syn på att AGI är ett system som kan uppvisa alla de kognitiva förmågor som människor har," sade han. "Jag tycker att vi kommer allt närmare, men vi är troligen fortfarande några år bort."

DeepMinds vd förutspådde att branschen behöver ytterligare ett par stora genombrott för att nå AGI, och noterade att de resonemangsmetoder som nyligen presenterats av Google, OpenAI och andra kan utgöra en del av ett sådant genombrott. Dessa resonemangsmodeller svarar inte omedelbart på frågor, utan utför mer beräkningar innan de ger ett svar—"Precis som de flesta av oss får vi viss nytta av att tänka innan vi talar," som Brin uttryckte det.

Under intervjun visade Hassabis upp Project Astra, en forskningsprototyp som utforskar banbrytande funktioner för Googles produkter på vägen mot att bygga en universell AI-assistent. Vissa av Astras funktioner har redan integrerats i Gemini Live under det senaste året, inklusive skärmdelning och videoförståelse.

Hassabis demonstrerade också Genie 2, en AI-modell som kan skapa en 3D-värld från en enda statisk bild, vilken kan utforskas av en mänsklig spelare eller en AI-agent. I ett exempel omvandlade Genie 2 ett fotografi av ett vattenfall i Kalifornien till en interaktiv 3D-miljö som kunde navigeras likt ett datorspel.

Ett annat banbrytande system som lyftes fram var SIMA (Scalable Instructable Multiworld Agent), en AI-agent som kan följa instruktioner i naturligt språk för att utföra uppgifter i olika datorspelsmiljöer. I takt med att Googles multimodala modeller blir mer kapabla och får bättre förståelse för världen och dess fysik, möjliggörs otroliga nya framsteg inom robotik.

Hassabis betonade att Google fortsätter att satsa stort på grundforskning och arbetar för att uppfinna nästa stora genombrott som krävs för AGI. Företaget vidareutvecklar sin Gemini 2.5 Pro-modell till att bli en "världsmodell" som kan göra planer och föreställa sig nya upplevelser genom att förstå och simulera aspekter av världen, på liknande sätt som den mänskliga hjärnan fungerar.

På frågan om etiska överväganden underströk Hassabis: "Inget har förändrats vad gäller våra principer. Det grundläggande med våra principer har alltid varit: vi måste noggrant väga fördelarna, och de måste väsentligt överväga risken för skada. Så det är en hög ribba för allt vi kan tänkas vilja göra. Självklart måste vi respektera internationell lag och mänskliga rättigheter—det gäller fortfarande."

Source:

Latest News