menu
close

I modelli di IA mostrano abilità sociali simili a quelle umane nei test di teoria dei giochi

I ricercatori hanno scoperto che i grandi modelli linguistici (LLM) dimostrano sofisticate capacità di ragionamento sociale quando vengono testati in contesti di teoria dei giochi. Uno studio guidato dal dottor Eric Schulz rivela che, sebbene questi sistemi di IA eccellano nelle decisioni orientate all’interesse personale, incontrano difficoltà nei compiti di coordinamento e lavoro di squadra. La ricerca introduce una tecnica promettente chiamata Social Chain-of-Thought (SCoT), che migliora sensibilmente il comportamento cooperativo dell’IA spingendo i modelli a considerare il punto di vista altrui.
I modelli di IA mostrano abilità sociali simili a quelle umane nei test di teoria dei giochi

I grandi modelli linguistici come GPT-4 sono sempre più integrati nella nostra vita quotidiana, dalla stesura di email al supporto nelle decisioni sanitarie. Man mano che questi sistemi di IA diventano più diffusi, comprendere le loro capacità sociali diventa fondamentale per una collaborazione efficace tra esseri umani e intelligenza artificiale.

Uno studio innovativo pubblicato su Nature Human Behaviour da ricercatori dell’Helmholtz Munich, del Max Planck Institute for Biological Cybernetics e dell’Università di Tübingen ha valutato in modo sistematico come gli LLM si comportano in scenari sociali utilizzando i paradigmi della teoria comportamentale dei giochi.

Il team di ricerca, guidato dal dottor Eric Schulz, ha fatto partecipare diversi modelli di IA a classici scenari di teoria dei giochi progettati per testare cooperazione, competizione e capacità decisionali strategiche. I risultati rivelano un quadro sfaccettato delle abilità sociali dell’IA.

"In alcuni casi, l’IA sembrava quasi troppo razionale per il proprio bene", spiega il dottor Schulz. "Era in grado di individuare immediatamente una minaccia o una mossa egoistica e rispondere con una ritorsione, ma faticava a cogliere il quadro più ampio fatto di fiducia, cooperazione e compromesso."

Lo studio ha rilevato che gli LLM ottengono risultati particolarmente buoni nei giochi orientati all’interesse personale come il Dilemma del Prigioniero iterato, dove la protezione dei propri interessi è fondamentale. Tuttavia, si comportano in modo subottimale nei giochi che richiedono coordinamento e compromesso reciproco, come la Battaglia dei Sessi.

Particolarmente promettente è lo sviluppo da parte del team di una tecnica chiamata Social Chain-of-Thought (SCoT), che spinge l’IA a considerare il punto di vista degli altri prima di prendere decisioni. Questo semplice intervento ha migliorato sensibilmente la cooperazione e l’adattabilità, anche nelle interazioni con giocatori umani. "Una volta che abbiamo stimolato il modello a ragionare socialmente, ha iniziato ad agire in modi che sembravano molto più umani", ha osservato Elif Akata, prima autrice dello studio.

Le implicazioni vanno ben oltre la teoria dei giochi. Man mano che gli LLM vengono sempre più integrati in ambiti come la sanità, il business e i contesti sociali, la loro capacità di comprendere le dinamiche sociali umane sarà cruciale. Questa ricerca offre preziose indicazioni su come i sistemi di IA potrebbero operare in ambienti sociali complessi e propone metodi pratici per potenziarne l’intelligenza sociale.

Source:

Latest News