Изследователи от Медицинското училище Icahn към Mount Sinai и Медицинския център Рабин в Израел откриха тревожен недостатък в начина, по който изкуственият интелект взема решения, свързани с медицинската етика — нещо, което може да застраши грижата за пациентите, ако остане без контрол.
Проучването, публикувано на 24 юли в npj Digital Medicine, тества няколко комерсиални големи езикови модела (LLMs), включително ChatGPT, с леко модифицирани версии на добре познати етични дилеми. Резултатите показват, че AI последователно избира интуитивни, но грешни отговори, дори когато му се предоставя ясна противоречаща информация.
„Изкуственият интелект може да бъде много мощен и ефективен, но нашето проучване показа, че той често се връща към най-познатия или интуитивен отговор, дори когато този отговор пренебрегва критични детайли“, обяснява д-р Еял Кланг, съавтор и ръководител на отдела по генеративен AI към Windreich Department of Artificial Intelligence and Human Health в Mount Sinai. „В здравеопазването, където решенията имат сериозни етични и клинични последици, пропускането на тези нюанси може да има реални последствия за пациентите.“
В един показателен тест изследователите модифицират класическия казус „Дилемата на хирурга“, като изрично посочват, че бащата на момчето е хирургът, премахвайки всякаква двусмисленост. Въпреки тази яснота, няколко AI модела все пак погрешно настояват, че хирургът трябва да е майката на момчето, демонстрирайки как AI се придържа към познати модели, дори когато са опровергани от нова информация.
По подобен начин, когато AI моделите са изправени пред сценарий с религиозни родители и кръвопреливане, те препоръчват да се игнорира отказът на родителите, дори когато в случая ясно е посочено, че родителите вече са дали съгласие за процедурата.
„Леки промени в познати казуси разкриха слепи петна, които клиницистите не могат да си позволят“, отбелязва водещият автор д-р Шели Софер от Института по хематология към Медицинския център Рабин. „Това подчертава защо човешкият надзор трябва да остане в центъра при внедряването на AI в грижата за пациентите.“
Изследователският екип, вдъхновен от книгата на Даниел Канеман „Мисленето, бързо и бавно“, установява, че AI проявява същата склонност към бързо, интуитивно мислене, както хората, но често му липсва способността да премине към по-задълбочено аналитично разсъждение, когато това е необходимо.
В бъдеще екипът на Mount Sinai планира да създаде „лаборатория за AI гаранция“, която систематично да оценява как различните модели се справят със сложността на реалния медицински свят. Изследователите подчертават, че AI трябва да допълва клиничния опит, а не да го замества, особено при етично чувствителни или високорискови решения.