Исследователи из Школы медицины Икана при Mount Sinai и Медицинского центра имени Рабина (Израиль) выявили тревожный изъян в том, как искусственный интеллект справляется с этическими решениями в медицине, что может поставить под угрозу безопасность пациентов, если не принять меры.
В исследовании, опубликованном 24 июля в npj Digital Medicine, были протестированы несколько коммерческих языковых моделей (LLM), включая ChatGPT, на слегка изменённых версиях известных этических дилемм. Результаты показали: ИИ стабильно выбирает интуитивно понятные, но ошибочные ответы, даже при наличии явной противоречащей информации.
«ИИ может быть очень мощным и эффективным, но наше исследование показало, что он склонен выбирать самый знакомый или интуитивный ответ, даже если при этом упускаются важные детали», — объяснил соавтор исследования доктор Эяль Кланг, руководитель отдела генеративного ИИ в департаменте искусственного интеллекта и здоровья человека Mount Sinai. — «В здравоохранении, где решения имеют серьёзные этические и клинические последствия, подобные упущения могут реально навредить пациентам».
В одном из показательных тестов исследователи изменили классическую задачу «Дилемма хирурга», явно указав, что отец мальчика — хирург, устранив любую двусмысленность. Несмотря на это, несколько ИИ-моделей по-прежнему ошибочно настаивали, что хирург — мать мальчика, что демонстрирует склонность ИИ к привычным шаблонам даже при наличии новых данных.
Аналогично, в ситуации с религиозными родителями и переливанием крови, ИИ рекомендовал игнорировать отказ родителей, даже когда в сценарии прямо говорилось, что родители уже дали согласие на процедуру.
«Простые изменения в знакомых случаях выявили слепые зоны, которые клиницисты не могут себе позволить», — отметила ведущий автор доктор Шелли Софер из Института гематологии Медицинского центра имени Рабина. — «Это подчёркивает, почему человеческий контроль должен оставаться центральным при внедрении ИИ в уходе за пациентами».
Команда исследователей, вдохновлённая книгой Даниэля Канемана «Думай медленно... решай быстро», обнаружила, что ИИ проявляет ту же склонность к быстрому, интуитивному мышлению, что и люди, но часто не способен переключиться на более вдумчивый аналитический подход, когда это необходимо.
В дальнейшем команда Mount Sinai планирует создать «лабораторию гарантии ИИ» для систематической оценки того, как различные модели справляются с реальными медицинскими сложностями. Учёные подчёркивают: ИИ должен дополнять клиническую экспертизу, а не заменять её, особенно при принятии этически сложных или критически важных решений.