menu
close

Modelos de IA Demonstram Competências Sociais Semelhantes às Humanas em Testes de Teoria dos Jogos

Investigadores descobriram que os grandes modelos de linguagem (LLMs) apresentam capacidades sofisticadas de raciocínio social quando testados em contextos de teoria dos jogos. Um estudo liderado pelo Dr. Eric Schulz revela que, embora estes sistemas de IA sejam exímios em decisões orientadas pelo interesse próprio, têm dificuldades em tarefas de coordenação e trabalho em equipa. A investigação apresenta uma técnica promissora denominada Social Chain-of-Thought (SCoT), que melhora significativamente o comportamento cooperativo da IA ao incentivar os modelos a considerar as perspetivas dos outros.
Modelos de IA Demonstram Competências Sociais Semelhantes às Humanas em Testes de Teoria dos Jogos

Modelos de linguagem de grande escala como o GPT-4 estão cada vez mais integrados no nosso quotidiano, desde a redação de emails até ao apoio em decisões na área da saúde. À medida que estes sistemas de IA se tornam mais presentes, compreender as suas capacidades sociais torna-se fundamental para uma colaboração eficaz entre humanos e máquinas.

Um estudo inovador publicado na Nature Human Behaviour, realizado por investigadores do Helmholtz Munich, do Instituto Max Planck para a Cibernética Biológica e da Universidade de Tübingen, avaliou de forma sistemática o desempenho dos LLMs em cenários sociais, utilizando quadros de teoria comportamental dos jogos.

A equipa de investigação, liderada pelo Dr. Eric Schulz, colocou vários modelos de IA a participar em cenários clássicos de teoria dos jogos, concebidos para testar a cooperação, a competição e a tomada de decisões estratégicas. As conclusões revelam uma perspetiva complexa sobre as capacidades sociais da IA.

"Em alguns casos, a IA parecia quase demasiado racional para o seu próprio bem", explica o Dr. Schulz. "Conseguia detetar uma ameaça ou um movimento egoísta de imediato e responder com retaliação, mas tinha dificuldade em perceber o panorama mais amplo da confiança, cooperação e compromisso."

O estudo verificou que os LLMs têm um desempenho particularmente bom em jogos de interesse próprio, como o Dilema do Prisioneiro iterado, onde a proteção dos próprios interesses é prioritária. No entanto, comportam-se de forma subótima em jogos que exigem coordenação e compromisso mútuo, como o Battle of the Sexes.

O aspeto mais promissor é o desenvolvimento, pela equipa, de uma técnica denominada Social Chain-of-Thought (SCoT), que incentiva a IA a considerar as perspetivas dos outros antes de tomar decisões. Esta simples intervenção melhorou significativamente a cooperação e a adaptabilidade, mesmo em interações com jogadores humanos. "Assim que incentivámos o modelo a raciocinar socialmente, começou a agir de formas que pareciam muito mais humanas", referiu Elif Akata, primeira autora do estudo.

As implicações vão muito além da teoria dos jogos. À medida que os LLMs se integram em áreas como a saúde, os negócios e os contextos sociais, a sua capacidade de compreender dinâmicas sociais humanas será crucial. Esta investigação oferece informações valiosas sobre o funcionamento dos sistemas de IA em ambientes sociais complexos e apresenta métodos práticos para potenciar a sua inteligência social.

Source:

Latest News