menu
close

Modelos de IA Fallan Pruebas Críticas de Ética Médica, Revela Estudio de Mount Sinai

Un estudio innovador de Mount Sinai y el Rabin Medical Center demuestra que incluso modelos avanzados de IA como ChatGPT cometen errores alarmantes al enfrentar escenarios de ética médica. Los investigadores descubrieron que los sistemas de IA suelen recurrir a respuestas familiares pero incorrectas cuando se les presentan dilemas éticos ligeramente modificados, llegando en ocasiones a ignorar por completo la información actualizada. Estos hallazgos generan serias preocupaciones sobre la fiabilidad de la IA en decisiones de salud de alto riesgo donde la sensibilidad ética es fundamental.
Modelos de IA Fallan Pruebas Críticas de Ética Médica, Revela Estudio de Mount Sinai

Investigadores de la Escuela de Medicina Icahn en Mount Sinai han identificado una falla peligrosa en la forma en que la inteligencia artificial aborda decisiones éticas en medicina, revelando limitaciones que podrían tener graves implicaciones para la atención de los pacientes.

El estudio, publicado el 22 de julio de 2025 en NPJ Digital Medicine, evaluó varios modelos de lenguaje de gran escala (LLM) disponibles comercialmente, incluyendo ChatGPT, utilizando versiones modificadas de dilemas éticos ampliamente conocidos. El equipo de investigación, liderado por el Dr. Eyal Klang, jefe de IA Generativa en Mount Sinai, y el Dr. Girish Nadkarni, presidente del Departamento Windreich de IA y Salud Humana, encontró que los sistemas de IA cometían errores básicos con frecuencia al enfrentarse a escenarios apenas alterados.

En un ejemplo revelador, los investigadores modificaron el clásico "Dilema del Cirujano" indicando explícitamente que el padre del niño era el cirujano. A pesar de esta información clara, varios modelos de IA insistieron incorrectamente en que el cirujano debía ser la madre del niño, demostrando cómo la IA puede aferrarse a patrones familiares incluso cuando son contradichos por nueva información.

Otra prueba involucró un escenario sobre padres religiosos y una transfusión de sangre. Cuando los investigadores cambiaron el escenario para indicar que los padres ya habían dado su consentimiento para el procedimiento, muchos modelos de IA aún recomendaron pasar por alto una negativa que ya no existía.

"La IA puede ser muy poderosa y eficiente, pero nuestro estudio mostró que tiende a recurrir a la respuesta más familiar o intuitiva, incluso cuando esa respuesta pasa por alto detalles críticos", explicó el Dr. Klang. "En la atención médica, donde las decisiones suelen tener importantes implicaciones éticas y clínicas, ignorar esos matices puede tener consecuencias reales para los pacientes".

La investigación se inspiró en el libro de Daniel Kahneman "Pensar rápido, pensar despacio", que contrasta las reacciones rápidas e intuitivas con el razonamiento más lento y analítico. Los hallazgos sugieren que los modelos de IA, al igual que los humanos, pueden tener dificultades para alternar entre estos dos modos de pensamiento.

Si bien los investigadores enfatizan que la IA sigue teniendo aplicaciones valiosas en la medicina, subrayan la necesidad de una supervisión humana cuidadosa, especialmente en situaciones que requieren sensibilidad ética o juicio matizado. "Estas herramientas pueden ser increíblemente útiles, pero no son infalibles", señaló el Dr. Nadkarni. "La IA es mejor utilizada como un complemento para potenciar la experiencia clínica, no como un sustituto de la misma, particularmente al enfrentar decisiones complejas o de alto riesgo".

Source:

Latest News