Изследователи от Icahn School of Medicine към Mount Sinai разкриват опасен недостатък в начина, по който изкуственият интелект взема решения, свързани с медицинската етика — ограничение, което може да има сериозни последици за пациентите.
Проучването, публикувано на 22 юли 2025 г. в списание NPJ Digital Medicine, тества няколко комерсиално достъпни големи езикови модела (LLMs), включително ChatGPT, върху модифицирани версии на добре познати етични дилеми. Екипът, ръководен от д-р Еял Кланг, директор по генеративен AI в Mount Sinai, и д-р Гириш Надкарни, ръководител на катедра „AI и човешко здраве“ към Windreich, установява, че AI системите често допускат елементарни грешки, когато се сблъскат с леко променени сценарии.
В един показателен пример изследователите променят класическия казус „Дилемата на хирурга“, като изрично посочват, че бащата на момчето е хирургът. Въпреки тази ясна информация, няколко AI модела погрешно настояват, че хирургът трябва да е майката на момчето, което показва как AI може да се придържа към познати шаблони, дори когато те са опровергани от нови данни.
Друг тест включва сценарий с религиозни родители и кръвопреливане. Когато изследователите променят ситуацията и посочват, че родителите вече са дали съгласие за процедурата, много AI модели все пак препоръчват да се заобиколи отказ, който вече не съществува.
„AI може да бъде много мощен и ефективен, но нашето проучване показа, че често се връща към най-познатия или интуитивен отговор, дори когато този отговор пропуска критични детайли“, обяснява д-р Кланг. „В здравеопазването, където решенията често имат сериозни етични и клинични последствия, пропускането на тези нюанси може да има реални последици за пациентите.“
Изследването е вдъхновено от книгата на Даниел Канеман „Мисленето, бързо и бавно“, която противопоставя бързите, интуитивни реакции на по-бавния, аналитичен начин на мислене. Откритията подсказват, че AI моделите, подобно на хората, могат да изпитват затруднения при превключване между тези два режима на мислене.
Въпреки че изследователите подчертават, че AI все още има ценни приложения в медицината, те настояват за внимателен човешки надзор, особено в ситуации, изискващи етична чувствителност или нюансирана преценка. „Тези инструменти могат да бъдат изключително полезни, но не са безгрешни“, отбелязва д-р Надкарни. „AI е най-полезен като допълнение към клиничната експертиза, а не като неин заместител, особено при вземане на сложни или високорискови решения.“