menu
close

AI modeli padaju na osnovnim testovima medicinske etike, otkriva studija Mount Sinaa

Revolucionarna studija istraživača iz Mount Sinaa i Rabin Medical Centera pokazuje da čak i najnapredniji AI modeli, uključujući ChatGPT, čine iznenađujuće osnovne pogreške pri rješavanju scenarija medicinske etike. Objavljena 24. srpnja 2025. u časopisu npj Digital Medicine, studija otkriva da AI sustavi često posežu za poznatim, ali netočnim odgovorima kada se suoče s blago izmijenjenim etičkim dilemama, što izaziva ozbiljnu zabrinutost oko njihove pouzdanosti u zdravstvenim okruženjima. Nalazi naglašavaju ključnu potrebu za ljudskim nadzorom prilikom primjene AI-a u medicinskom odlučivanju.
AI modeli padaju na osnovnim testovima medicinske etike, otkriva studija Mount Sinaa

Istraživači s Icahn School of Medicine na Mount Sinaiu i Rabin Medical Centera u Izraelu otkrili su zabrinjavajući nedostatak u načinu na koji umjetna inteligencija donosi odluke vezane uz medicinsku etiku, što bi, ako se ne ispravi, moglo ugroziti skrb o pacijentima.

Studija, objavljena 24. srpnja u časopisu npj Digital Medicine, testirala je nekoliko komercijalnih velikih jezičnih modela (LLM-ova), uključujući ChatGPT, na blago izmijenjenim verzijama poznatih etičkih dilema. Rezultati su pokazali da AI dosljedno poseže za intuitivnim, ali netočnim odgovorima, čak i kada su mu predstavljene jasne kontradiktorne informacije.

"AI može biti vrlo moćan i učinkovit, ali naša je studija pokazala da može automatski birati najpoznatiji ili najintuitivniji odgovor, čak i kada taj odgovor zanemaruje ključne detalje", objasnio je suautor dr. Eyal Klang, voditelj generativne umjetne inteligencije na Windreich odjelu za umjetnu inteligenciju i ljudsko zdravlje Mount Sinaa. "U zdravstvu, gdje odluke nose ozbiljne etičke i kliničke posljedice, propuštanje tih nijansi može imati stvarne posljedice za pacijente."

U jednom od najzanimljivijih testova, istraživači su modificirali klasičnu zagonetku "Dilema kirurga" tako što su izričito naveli da je dječakov otac kirurg, uklanjajući svaku dvosmislenost. Unatoč toj jasnoći, nekoliko AI modela i dalje je pogrešno tvrdilo da kirurg mora biti dječakova majka, pokazujući kako AI može ostati vezan uz poznate obrasce čak i kada ih nova informacija opovrgava.

Slično tome, kada su modeli dobili scenarij o religioznim roditeljima i transfuziji krvi, AI je preporučio da se zanemari roditeljsko odbijanje, iako je u scenariju jasno stajalo da su roditelji već pristali na zahvat.

"Jednostavne izmjene poznatih slučajeva otkrile su slijepe točke koje si kliničari ne mogu priuštiti", istaknula je glavna autorica dr. Shelly Soffer iz Instituta za hematologiju Rabin Medical Centera. "To naglašava zašto ljudski nadzor mora ostati u središtu kada koristimo AI u skrbi za pacijente."

Istraživački tim, inspiriran knjigom Daniela Kahnemana "Thinking, Fast and Slow", otkrio je da AI pokazuje istu sklonost brzom, intuitivnom razmišljanju kao i ljudi, ali često nema sposobnost prelaska na promišljenije, analitičko zaključivanje kada je to potrebno.

U budućnosti, tim s Mount Sinaa planira osnovati "laboratorij za osiguranje AI-a" kako bi sustavno procjenjivao kako različiti modeli rješavaju složenost stvarnog medicinskog svijeta. Istraživači naglašavaju da AI treba nadopunjavati kliničku stručnost, a ne je zamijeniti, osobito u etički osjetljivim ili visokorizičnim odlukama.

Source:

Latest News