CEO Google DeepMind, Demis Hassabis, uważa, że sztuczna inteligencja ogólna (AGI) prawdopodobnie pojawi się tuż przed lub po 2030 roku – wynika z jego wypowiedzi podczas ważnego wystąpienia medialnego 21 maja 2025 roku.
Podczas wydarzenia, w którym niespodziewanie wziął udział także współzałożyciel Google, Sergey Brin, Hassabis omówił harmonogram osiągnięcia AGI – szeroko rozumianej jako AI dorównująca lub przewyższająca większość ludzkich zdolności. Brin przewidywał, że AGI pojawi się tuż przed 2030 rokiem, natomiast Hassabis sugerował, że może to nastąpić nieco później, żartując, że Brin może po prostu zadeklarować nadejście AGI, podczas gdy on sam musi faktycznie je dostarczyć.
Hassabis, który w 2024 roku otrzymał część Nagrody Nobla w dziedzinie chemii za pracę nad AlphaFold, przyznał, że w ostatnich latach dokonano niesamowitego postępu w AI. "Pracujemy nad tym od ponad 20 lat i mamy spójną wizję AGI jako systemu zdolnego do wykazywania wszystkich zdolności poznawczych człowieka" – stwierdził. "Myślę, że jesteśmy coraz bliżej, ale wciąż dzieli nas od tego kilka lat."
Szef DeepMind przewiduje, że branża będzie potrzebować jeszcze kilku dużych przełomów, aby osiągnąć AGI, zauważając, że podejścia do rozumowania niedawno zaprezentowane przez Google, OpenAI i innych mogą stanowić część takiego przełomu. Modele te nie odpowiadają na zapytania natychmiast, lecz wykonują więcej obliczeń zanim udzielą odpowiedzi – "Podobnie jak większość z nas, odnosimy korzyść z pomyślenia, zanim coś powiemy" – skomentował Brin.
W trakcie wywiadu Hassabis zaprezentował Project Astra – prototyp badawczy eksplorujący przełomowe możliwości dla produktów Google na drodze do stworzenia uniwersalnego asystenta AI. Część funkcji Astra została już w minionym roku zintegrowana z Gemini Live, w tym udostępnianie ekranu i rozumienie wideo.
Hassabis zaprezentował także Genie 2 – model AI, który potrafi stworzyć trójwymiarowy świat z pojedynczego statycznego obrazu, możliwy do eksploracji przez człowieka lub agenta AI. W jednym z przykładów Genie 2 przekształcił fotografię wodospadu w Kalifornii w interaktywne środowisko 3D, po którym można się poruszać niczym w grze komputerowej.
Kolejnym przełomowym systemem była SIMA (Scalable Instructable Multiworld Agent) – agent AI zdolny do wykonywania poleceń w języku naturalnym w różnych środowiskach gier wideo. Wraz ze wzrostem możliwości modeli multimodalnych Google oraz ich lepszym rozumieniem świata i jego fizyki, możliwe stają się niezwykłe postępy w robotyce.
Hassabis podkreślił, że Google konsekwentnie inwestuje w badania podstawowe, pracując nad wynalezieniem kolejnych przełomów niezbędnych do osiągnięcia AGI. Firma rozwija swój model Gemini 2.5 Pro, by stał się "modelem świata" – potrafiącym planować i wyobrażać sobie nowe doświadczenia poprzez rozumienie i symulację aspektów rzeczywistości, podobnie jak robi to ludzki mózg.
Zapytany o kwestie etyczne, Hassabis podkreślił: "Nasze zasady się nie zmieniły. Zawsze najważniejsze było dla nas rozważne ocenianie korzyści, które muszą zdecydowanie przewyższać ryzyko szkody. To bardzo wysoka poprzeczka dla wszystkiego, co chcemy zrobić. Oczywiście musimy też respektować prawo międzynarodowe i prawa człowieka – to nadal pozostaje niezmienne."