menu
close

AI modely vykazují lidsky podobné sociální dovednosti v testech teorie her

Výzkumníci zjistili, že velké jazykové modely (LLM) prokazují sofistikované schopnosti sociálního uvažování při testování v rámci teorie her. Studie vedená Dr. Ericem Schulzem odhaluje, že tyto AI systémy vynikají v rozhodování zaměřeném na vlastní prospěch, ale mají potíže s úkoly vyžadujícími koordinaci a týmovou spolupráci. Výzkum představuje slibnou techniku nazvanou Social Chain-of-Thought (SCoT), která výrazně zlepšuje kooperativní chování AI tím, že modely vede k uvažování z pohledu ostatních.
AI modely vykazují lidsky podobné sociální dovednosti v testech teorie her

Velké jazykové modely jako GPT-4 jsou stále více integrovány do našich každodenních životů – od psaní e-mailů až po podporu rozhodování ve zdravotnictví. S rostoucím rozšířením těchto AI systémů je klíčové porozumět jejich sociálním schopnostem pro efektivní spolupráci mezi lidmi a umělou inteligencí.

Průlomová studie publikovaná v časopise Nature Human Behaviour, na níž se podíleli vědci z Helmholtzova centra v Mnichově, Max Planckova institutu pro biologickou kybernetiku a Univerzity v Tübingenu, systematicky hodnotila, jak si LLM vedou v sociálních situacích pomocí rámců behaviorální teorie her.

Výzkumný tým vedený Dr. Ericem Schulzem nechal různé AI modely zapojit se do klasických scénářů teorie her, které testují spolupráci, soutěživost a strategické rozhodování. Jejich zjištění odhalují nuancovaný obraz sociálních schopností AI.

"V některých případech se AI zdála být až příliš racionální pro své vlastní dobro," vysvětluje Dr. Schulz. "Okamžitě rozpoznala hrozbu nebo sobecký tah a reagovala odvetou, ale měla potíže vnímat širší obraz důvěry, spolupráce a kompromisu."

Studie zjistila, že LLM si vedou obzvlášť dobře v hrách zaměřených na vlastní prospěch, jako je opakované vězňovo dilema, kde je ochrana vlastních zájmů klíčová. Naopak v hrách vyžadujících koordinaci a vzájemný kompromis, jako je Bitva pohlaví, se chovají suboptimálně.

Nejslibnější je vývoj techniky zvané Social Chain-of-Thought (SCoT), která AI navádí k tomu, aby před rozhodnutím zvažovala perspektivu ostatních. Tento jednoduchý zásah výrazně zlepšil kooperaci a přizpůsobivost, a to i při interakci s lidskými hráči. "Jakmile jsme model pobídli k sociálnímu uvažování, začal se chovat mnohem lidštěji," uvedla Elif Akata, hlavní autorka studie.

Důsledky přesahují rámec teorie her. S tím, jak se LLM stále více začleňují do zdravotnictví, byznysu i sociálních prostředí, bude jejich schopnost rozumět lidské sociální dynamice zásadní. Tento výzkum přináší cenné poznatky o tom, jak by AI systémy mohly fungovat v komplexních sociálních prostředích, a nabízí praktické metody pro zvýšení jejich sociální inteligence.

Source:

Latest News