Sztuczna inteligencja przekroczyła kolejny próg w swoim rozwoju w kierunku coraz bardziej ludzkich umiejętności. 22 maja 2025 roku naukowcy z Uniwersytetu Genewskiego (UNIGE) oraz Uniwersytetu w Bernie (UniBE) opublikowali na łamach Communications Psychology wyniki badań, które pokazują, że systemy AI nie tylko rozumieją emocje, ale mogą być nawet lepsze od ludzi w sugerowaniu odpowiednich reakcji emocjonalnych.
Zespół badawczy pod kierownictwem Katji Schlegel z Instytutu Psychologii UniBE ocenił sześć zaawansowanych dużych modeli językowych (LLM), w tym ChatGPT-4, ChatGPT-o1, Gemini 1.5 Flash, Copilot 365, Claude 3.5 Haiku oraz DeepSeek V3. Systemy AI poddano pięciu testom inteligencji emocjonalnej powszechnie stosowanym w środowiskach akademickich i korporacyjnych.
Testy polegały na analizie scenariuszy nacechowanych emocjonalnie, mających na celu ocenę zdolności rozumienia, regulowania i zarządzania emocjami. W jednym z przykładów uczestnicy mieli wskazać najskuteczniejszą reakcję osoby, której kolega ukradł pomysł i niesprawiedliwie otrzymał gratulacje. Gdy te same testy przeprowadzono wśród ludzi, wyniki były uderzające: systemy AI uzyskały średnio 82% poprawnych odpowiedzi, wyraźnie przewyższając ludzi, którzy osiągnęli średnio jedynie 56%.
"To sugeruje, że te systemy AI nie tylko rozumieją emocje, ale także pojmują, co oznacza zachowanie zgodne z inteligencją emocjonalną" – wyjaśnia Marcello Mortillaro, starszy naukowiec ze Szwajcarskiego Centrum Nauk o Afektach UNIGE, uczestniczący w badaniach.
Być może jeszcze bardziej niezwykła była druga faza badania, w której ChatGPT-4 otrzymał zadanie stworzenia zupełnie nowych testów inteligencji emocjonalnej z oryginalnymi scenariuszami. Testy wygenerowane przez AI zostały przeprowadzone wśród ponad 400 uczestników i okazały się równie wiarygodne, przejrzyste i realistyczne jak oryginalne testy, których opracowanie zajęło ekspertom lata.
Odkrycia te otwierają obiecujące perspektywy zastosowań AI w dziedzinach dotąd uznawanych za wyłącznie ludzkie, takich jak edukacja, coaching czy zarządzanie konfliktami. Naukowcy podkreślają jednak, że wdrożenie takich rozwiązań wymagałoby odpowiedniego nadzoru ekspertów. W miarę jak AI wykazuje coraz bardziej zaawansowane zdolności emocjonalne, granica między inteligencją ludzką a maszynową staje się coraz bardziej subtelna.