menu
close

AI modeli padaju na ključnim testovima medicinske etike, otkriva studija Mount Sinaa

Revolucionarna studija Mount Sinaa i Rabin Medical Centra pokazuje da čak i napredni AI modeli poput ChatGPT-a čine zabrinjavajuće pogreške pri rješavanju medicinskih etičkih scenarija. Istraživači su otkrili da AI sustavi često posežu za poznatim, ali netočnim odgovorima kada su suočeni s blago izmijenjenim etičkim dilemama, ponekad potpuno ignorirajući nove informacije. Ovi nalazi izazivaju ozbiljnu zabrinutost oko pouzdanosti AI-a u donošenju važnih medicinskih odluka gdje je etička nijansa presudna.
AI modeli padaju na ključnim testovima medicinske etike, otkriva studija Mount Sinaa

Istraživači s Icahn School of Medicine pri Mount Sinai otkrili su opasnu manu u načinu na koji umjetna inteligencija donosi odluke vezane uz medicinsku etiku, ukazujući na ograničenja koja bi mogla imati ozbiljne posljedice za skrb o pacijentima.

Studija, objavljena 22. srpnja 2025. u časopisu NPJ Digital Medicine, testirala je nekoliko komercijalno dostupnih velikih jezičnih modela (LLM-ova), uključujući ChatGPT, na izmijenjenim verzijama poznatih etičkih dilema. Istraživački tim, predvođen dr. Eyalom Klangom, voditeljem Odjela za generativnu umjetnu inteligenciju na Mount Sinai, i dr. Girishem Nadkarnijem, predstojnikom Odjela za umjetnu inteligenciju i ljudsko zdravlje Windreich, otkrio je da AI sustavi često čine osnovne pogreške kada su suočeni s neznatno izmijenjenim scenarijima.

U jednom ilustrativnom primjeru, istraživači su izmijenili klasičnu zagonetku "Dilema kirurga" tako što su izričito naveli da je dječakov otac kirurg. Unatoč toj jasnoj informaciji, nekoliko AI modela je pogrešno inzistiralo da kirurg mora biti dječakova majka, pokazujući kako AI može ostati vezan uz poznate obrasce čak i kada ih nove informacije pobijaju.

Drugi test uključivao je scenarij o religioznim roditeljima i transfuziji krvi. Kada su istraživači izmijenili situaciju tako da roditelji već pristaju na zahvat, mnogi AI modeli i dalje su preporučivali da se zaobiđe odbijanje koje više nije postojalo.

"AI može biti vrlo moćan i učinkovit, ali naša studija je pokazala da može posegnuti za najpoznatijim ili najintuitivnijim odgovorom, čak i kada takav odgovor zanemaruje ključne detalje", objasnio je dr. Klang. "U zdravstvu, gdje odluke često nose ozbiljne etičke i kliničke posljedice, propuštanje tih nijansi može imati stvarne posljedice za pacijente."

Inspiracija za istraživanje bila je knjiga Daniela Kahnemana "Thinking, Fast and Slow", koja suprotstavlja brze, intuitivne reakcije sporijem, analitičkom razmišljanju. Rezultati sugeriraju da se AI modeli, poput ljudi, mogu teško prebacivati između ta dva načina razmišljanja.

Iako istraživači naglašavaju da AI i dalje ima vrijedne primjene u medicini, ističu potrebu za pažljivim ljudskim nadzorom, osobito u situacijama koje zahtijevaju etičku osjetljivost ili nijansirano prosuđivanje. "Ovi alati mogu biti iznimno korisni, ali nisu nepogrešivi", napominje dr. Nadkarni. "AI je najbolje koristiti kao nadopunu za unaprjeđenje kliničke stručnosti, a ne kao zamjenu, posebno pri donošenju složenih ili visokorizičnih odluka."

Source:

Latest News