menu
close

Моделі ШІ провалюють критичні тести з медичної етики, показало дослідження Mount Sinai

Революційне дослідження Mount Sinai та медичного центру Рабін показує, що навіть передові моделі ШІ, такі як ChatGPT, роблять тривожні помилки у вирішенні етичних медичних ситуацій. Дослідники виявили, що системи ШІ часто обирають знайомі, але хибні відповіді, коли стикаються з дещо зміненими етичними дилемами, іноді повністю ігноруючи нову інформацію. Ці результати викликають серйозні занепокоєння щодо надійності ШІ у прийнятті рішень у сфері охорони здоров’я, де етичні нюанси мають вирішальне значення.
Моделі ШІ провалюють критичні тести з медичної етики, показало дослідження Mount Sinai

Дослідники з медичної школи Ікана при Mount Sinai виявили небезпечний недолік у тому, як штучний інтелект приймає рішення щодо медичної етики, що може мати серйозні наслідки для догляду за пацієнтами.

Дослідження, опубліковане 22 липня 2025 року в журналі NPJ Digital Medicine, перевіряло кілька комерційно доступних великих мовних моделей (LLM), зокрема ChatGPT, на модифікованих версіях відомих етичних дилем. Команда під керівництвом доктора Еяла Кланга, керівника напряму генеративного ШІ в Mount Sinai, та доктора Гіріша Надкарні, голови департаменту штучного інтелекту та здоров’я людини Windreich, з’ясувала, що системи ШІ часто робили базові помилки, коли стикалися з трохи зміненими сценаріями.

В одному з показових прикладів дослідники змінили класичну задачу «Дилема хірурга», чітко вказавши, що батько хлопчика був хірургом. Незважаючи на цю однозначну інформацію, кілька моделей ШІ помилково наполягали, що хірургом має бути мати хлопчика, демонструючи, як ШІ може триматися за знайомі шаблони навіть всупереч новим даним.

Інший тест стосувався сценарію з релігійними батьками та переливанням крові. Коли дослідники змінили умову і вказали, що батьки вже дали згоду на процедуру, багато моделей ШІ все одно рекомендували ігнорувати відмову, якої вже не було.

«ШІ може бути дуже потужним та ефективним, але наше дослідження показало, що він може обирати найзнайомішу або інтуїтивну відповідь, навіть якщо така відповідь ігнорує критично важливі деталі», — пояснив доктор Кланг. «У медицині, де рішення часто мають серйозні етичні та клінічні наслідки, втрата цих нюансів може реально вплинути на пацієнтів».

Натхненням для дослідження стала книга Даніеля Канемана «Мислення, швидке й повільне», яка протиставляє швидкі, інтуїтивні реакції повільнішому, аналітичному мисленню. Результати свідчать, що моделі ШІ, як і люди, можуть мати труднощі з перемиканням між цими двома режимами мислення.

Хоча дослідники підкреслюють, що ШІ все ще має цінні застосування у медицині, вони наголошують на необхідності уважного людського контролю, особливо у ситуаціях, що вимагають етичної чутливості чи тонкого судження. «Ці інструменти можуть бути надзвичайно корисними, але вони не безпомилкові», — зазначив доктор Надкарні. «ШІ найкраще використовувати як доповнення для підсилення клінічної експертизи, а не як її заміну, особливо при вирішенні складних або критичних питань».

Source:

Latest News