China volgt een geavanceerde, veelzijdige strategie om de ontwikkeling richting Kunstmatige Algemene Intelligentie (AGI) te versnellen, zo blijkt uit een rapport van mei 2025 van het Center for Security and Emerging Technology (CSET) van de Georgetown University.
Het rapport, getiteld 'Wuhan's AI-ontwikkeling: China's Alternatieve Springplank naar Kunstmatige Algemene Intelligentie', beschrijft hoe China alternatieve benaderingen voor AGI ontwikkelt die afwijken van de westerse focus op grote taalmodellen (LLM's). In plaats daarvan onderzoeken Chinese wetenschappers 'belichaamde AI'-systemen die leren door interactie met de echte wereld.
"China's belangrijkste door de staat gefinancierde AI-instituten verkennen alternatieve benaderingen van AGI waarbij AI-algoritmes worden belichaamd in echte omgevingen. Doordrenkt met de vooraf bepaalde waarden van de Chinese Communistische Partij, gaat de AI interactie aan met zijn natuurlijke omgeving en leert gaandeweg," schrijven CSET-onderzoekers William Hannas, Huey-Meei Chang en Daniel H. Chou.
De centrale stad Wuhan fungeert als proeftuin voor dit initiatief, waarbij twee in Peking gevestigde AI-instituten daar vestigingen openen. De inspanning wordt geleid door het Institute of Automation van de Chinese Academie van Wetenschappen (CASIA), het PKU-Wuhan Institute for Artificial Intelligence van de Universiteit van Peking en technologiereus Huawei, allen met aanzienlijke staatssteun.
China's strategie omvat forse investeringen in breininspirerende AI en neurowetenschappelijke benaderingen. De gemeentelijke overheid van Wuhan kondigde onlangs plannen aan om de AI-industrie van de stad in 2025 te versterken door zich te richten op vijf kerngebieden: 'AI plus robots, AI plus auto's, AI plus pc en server, AI plus mobiele telefoons en AI plus brillen.'
Experts waarschuwen dat, terwijl de VS en Europa zich vooral richten op de ontwikkeling van LLM's en AI-veiligheid, China's gediversifieerde aanpak op de lange termijn strategische voordelen kan opleveren in de race om AGI-dominantie. "Terwijl we ons richten op AI-veiligheid en de gevaren van bewapening, moeten we ook rekening houden met de reële mogelijkheid dat we worden voorbijgestreefd door een land dat sneller en doortastender handelt om de beloften van AI waar te maken," concluderen de CSET-onderzoekers.