menu
close

Моделі ШІ провалюють базові тести з медичної етики — дослідження Mount Sinai

Революційне дослідження вчених з Mount Sinai та медичного центру Рабін показало, що навіть найсучасніші моделі штучного інтелекту, включаючи ChatGPT, роблять несподівано елементарні помилки у вирішенні етичних медичних ситуацій. Опубліковане 24 липня 2025 року в журналі npj Digital Medicine, дослідження виявило, що ШІ часто обирає знайомі, але неправильні відповіді при незначній зміні умов етичної дилеми, що викликає серйозні сумніви щодо його надійності у сфері охорони здоров’я. Отримані результати підкреслюють критичну необхідність людського контролю при впровадженні ШІ у медичне прийняття рішень.
Моделі ШІ провалюють базові тести з медичної етики — дослідження Mount Sinai

Дослідники з Медичної школи Ікана при Mount Sinai та медичного центру Рабін в Ізраїлі виявили тривожний недолік у тому, як штучний інтелект приймає рішення з медичної етики, що може поставити під загрозу якість допомоги пацієнтам, якщо це залишити поза увагою.

Дослідження, опубліковане 24 липня в npj Digital Medicine, перевіряло кілька комерційних великих мовних моделей (LLM), зокрема ChatGPT, на трохи змінених версіях відомих етичних дилем. Результати показали, що ШІ послідовно обирає інтуїтивно знайомі, але неправильні відповіді, навіть коли отримує чітку суперечливу інформацію.

«ШІ може бути дуже потужним та ефективним, але наше дослідження показало, що він схильний обирати найбільш знайому або інтуїтивну відповідь, навіть якщо така відповідь ігнорує важливі деталі», — пояснив співкерівник дослідження доктор Еяль Кланг, керівник напряму генеративного ШІ у Windreich Department of Artificial Intelligence and Human Health Mount Sinai. «У медицині, де рішення мають серйозні етичні та клінічні наслідки, ігнорування нюансів може мати реальні наслідки для пацієнтів».

В одному з показових тестів дослідники змінили класичну дилему «Парадокс хірурга», чітко вказавши, що батько хлопчика — хірург, усунувши будь-яку неоднозначність. Незважаючи на цю ясність, кілька моделей ШІ все одно наполягали, що хірургом має бути мати хлопчика, демонструючи, як ШІ може триматися за знайомі шаблони навіть у разі суперечливої нової інформації.

Аналогічно, у сценарії з релігійними батьками та переливанням крові моделі ШІ рекомендували ігнорувати відмову батьків, навіть коли у завданні чітко зазначалося, що батьки вже дали згоду на процедуру.

«Прості зміни у звичних кейсах виявили сліпі плями, які лікарі не можуть собі дозволити», — зазначила провідна авторка доктор Шеллі Софер з Інституту гематології медичного центру Рабін. «Це підкреслює, чому людський контроль має залишатися центральним при впровадженні ШІ у догляд за пацієнтами».

Дослідницька команда, натхненна книгою Даніеля Канемана «Мислення, швидке й повільне», виявила, що ШІ проявляє таку ж схильність до швидкого, інтуїтивного мислення, як і люди, але часто не здатний перейти до більш зваженого аналітичного роздуму, коли це необхідно.

У майбутньому команда Mount Sinai планує створити «лабораторію гарантії ШІ» для систематичної оцінки того, як різні моделі справляються зі складними реальними медичними ситуаціями. Дослідники наголошують, що ШІ має доповнювати клінічний досвід, а не замінювати його, особливо у випадках, що стосуються етики або мають високу ціну помилки.

Source:

Latest News