Investigadores de la Escuela de Medicina Icahn en Mount Sinai y del Centro Médico Rabin en Israel han descubierto un fallo preocupante en la forma en que la inteligencia artificial gestiona las decisiones éticas en medicina, lo que podría poner en peligro la atención a los pacientes si no se corrige.
El estudio, publicado el 24 de julio en npj Digital Medicine, evaluó varios modelos comerciales de lenguaje de gran tamaño (LLM), incluido ChatGPT, utilizando versiones ligeramente modificadas de dilemas éticos conocidos. Los resultados revelaron que la IA recurría sistemáticamente a respuestas intuitivas pero incorrectas, incluso cuando se le presentaba información claramente contradictoria.
"La IA puede ser muy potente y eficiente, pero nuestro estudio demostró que tiende a dar la respuesta más familiar o intuitiva, incluso cuando esa respuesta pasa por alto detalles críticos", explicó el doctor Eyal Klang, coautor principal y jefe de IA generativa en el Departamento Windreich de Inteligencia Artificial y Salud Humana de Mount Sinai. "En el ámbito sanitario, donde las decisiones tienen importantes implicaciones éticas y clínicas, pasar por alto esos matices puede tener consecuencias reales para los pacientes".
En una de las pruebas más reveladoras, los investigadores modificaron el clásico dilema del "Cirujano" indicando explícitamente que el padre del niño era el cirujano, eliminando cualquier ambigüedad. A pesar de esta claridad, varios modelos de IA insistieron erróneamente en que el cirujano debía ser la madre del niño, demostrando cómo la IA puede aferrarse a patrones familiares incluso cuando la nueva información los contradice.
De manera similar, al presentar un escenario sobre padres religiosos y una transfusión de sangre, los modelos de IA recomendaron ignorar la negativa de los padres incluso cuando el caso indicaba claramente que ya habían dado su consentimiento para el procedimiento.
"Pequeños cambios en casos conocidos sacaron a la luz puntos ciegos que los clínicos no pueden permitirse", señaló la doctora Shelly Soffer, autora principal del estudio e investigadora en el Instituto de Hematología del Centro Médico Rabin. "Esto subraya por qué la supervisión humana debe seguir siendo central cuando implementamos la IA en la atención al paciente".
El equipo de investigación, inspirado por el libro de Daniel Kahneman "Pensar rápido, pensar despacio", descubrió que la IA muestra la misma tendencia al pensamiento rápido e intuitivo que los humanos, pero a menudo carece de la capacidad de pasar a un razonamiento más analítico y deliberado cuando es necesario.
De cara al futuro, el equipo de Mount Sinai planea crear un "laboratorio de garantía de IA" para evaluar sistemáticamente cómo distintos modelos gestionan la complejidad médica real. Los investigadores insisten en que la IA debe complementar la experiencia clínica y no sustituirla, especialmente en decisiones éticamente sensibles o de alto impacto.