menu
close

Modelos de IA Demonstram Habilidades Sociais Semelhantes às Humanas em Testes de Teoria dos Jogos

Pesquisadores descobriram que grandes modelos de linguagem (LLMs) apresentam habilidades sofisticadas de raciocínio social quando avaliados em estruturas de teoria dos jogos. Um estudo liderado pelo Dr. Eric Schulz revela que, embora esses sistemas de IA sejam excelentes em decisões baseadas no interesse próprio, eles têm dificuldades em tarefas de coordenação e trabalho em equipe. A pesquisa apresenta uma técnica promissora chamada Social Chain-of-Thought (SCoT), que melhora significativamente o comportamento cooperativo da IA ao incentivar os modelos a considerarem as perspectivas dos outros.
Modelos de IA Demonstram Habilidades Sociais Semelhantes às Humanas em Testes de Teoria dos Jogos

Grandes modelos de linguagem como o GPT-4 estão cada vez mais presentes em nosso cotidiano, desde a redação de e-mails até o suporte a decisões em saúde. À medida que esses sistemas de IA se tornam mais prevalentes, compreender suas capacidades sociais torna-se fundamental para uma colaboração eficaz entre humanos e máquinas.

Um estudo inovador publicado na revista Nature Human Behaviour, conduzido por pesquisadores do Helmholtz Munich, do Instituto Max Planck de Cibernética Biológica e da Universidade de Tübingen, avaliou sistematicamente como os LLMs se comportam em cenários sociais utilizando estruturas da teoria dos jogos comportamental.

A equipe de pesquisa, liderada pelo Dr. Eric Schulz, fez com que diversos modelos de IA participassem de cenários clássicos de teoria dos jogos, projetados para testar cooperação, competição e tomada de decisões estratégicas. Os resultados revelam um panorama complexo das habilidades sociais da IA.

"Em alguns casos, a IA parecia quase racional demais para o próprio bem", explica o Dr. Schulz. "Ela conseguia identificar uma ameaça ou um movimento egoísta instantaneamente e respondia com retaliação, mas tinha dificuldades para enxergar o quadro maior de confiança, cooperação e compromisso."

O estudo constatou que os LLMs se saem particularmente bem em jogos de interesse próprio, como o Dilema do Prisioneiro iterado, onde proteger os próprios interesses é fundamental. No entanto, eles apresentam desempenho abaixo do ideal em jogos que exigem coordenação e compromisso mútuo, como o Jogo da Batalha dos Sexos.

O destaque do estudo é o desenvolvimento de uma técnica chamada Social Chain-of-Thought (SCoT), que incentiva a IA a considerar as perspectivas dos outros antes de tomar decisões. Essa intervenção simples melhorou significativamente a cooperação e a adaptabilidade, inclusive em interações com participantes humanos. "Quando incentivamos o modelo a raciocinar socialmente, ele passou a agir de maneiras que pareciam muito mais humanas", observou Elif Akata, primeira autora do estudo.

As implicações vão muito além da teoria dos jogos. À medida que os LLMs se integram cada vez mais à saúde, aos negócios e a ambientes sociais, sua capacidade de compreender dinâmicas sociais humanas será crucial. Esta pesquisa oferece insights valiosos sobre como sistemas de IA podem atuar em ambientes sociais complexos e apresenta métodos práticos para aprimorar sua inteligência social.

Source:

Latest News