menu
close

Τα Μοντέλα Τεχνητής Νοημοσύνης Αποτυγχάνουν σε Βασικά Τεστ Ιατρικής Ηθικής, Αποκαλύπτει Μελέτη του Mount Sinai

Μια πρωτοποριακή μελέτη από ερευνητές του Mount Sinai και του Rabin Medical Center δείχνει ότι ακόμη και τα πιο προηγμένα μοντέλα τεχνητής νοημοσύνης, συμπεριλαμβανομένου του ChatGPT, κάνουν εκπληκτικά βασικά λάθη όταν καλούνται να διαχειριστούν σενάρια ιατρικής ηθικής. Η έρευνα, που δημοσιεύθηκε στις 24 Ιουλίου 2025 στο npj Digital Medicine, αποκαλύπτει ότι τα συστήματα τεχνητής νοημοσύνης συχνά καταφεύγουν σε οικείες αλλά λανθασμένες απαντήσεις όταν αντιμετωπίζουν ελαφρώς τροποποιημένα ηθικά διλήμματα, εγείροντας σοβαρές ανησυχίες για την αξιοπιστία τους στον χώρο της υγείας. Τα ευρήματα υπογραμμίζουν την κρίσιμη ανάγκη ανθρώπινης εποπτείας κατά την ενσωμάτωση της τεχνητής νοημοσύνης στη λήψη ιατρικών αποφάσεων.
Τα Μοντέλα Τεχνητής Νοημοσύνης Αποτυγχάνουν σε Βασικά Τεστ Ιατρικής Ηθικής, Αποκαλύπτει Μελέτη του Mount Sinai

Ερευνητές από την Ιατρική Σχολή Icahn του Mount Sinai και το Rabin Medical Center στο Ισραήλ εντόπισαν ένα ανησυχητικό ελάττωμα στον τρόπο με τον οποίο η τεχνητή νοημοσύνη διαχειρίζεται αποφάσεις ιατρικής ηθικής, γεγονός που ενδέχεται να θέσει σε κίνδυνο την περίθαλψη των ασθενών αν δεν αντιμετωπιστεί.

Η μελέτη, που δημοσιεύθηκε στις 24 Ιουλίου στο npj Digital Medicine, εξέτασε αρκετά εμπορικά μεγάλα γλωσσικά μοντέλα (LLMs), συμπεριλαμβανομένου του ChatGPT, σε ελαφρώς τροποποιημένες εκδοχές γνωστών ηθικών διλημμάτων. Τα αποτελέσματα έδειξαν ότι η τεχνητή νοημοσύνη επανειλημμένα κατέφευγε σε διαισθητικές αλλά λανθασμένες απαντήσεις, ακόμη και όταν της παρεχόταν ξεκάθαρα αντιφατικές πληροφορίες.

"Η τεχνητή νοημοσύνη μπορεί να είναι πολύ ισχυρή και αποτελεσματική, αλλά η μελέτη μας έδειξε ότι μπορεί να επιλέγει την πιο οικεία ή διαισθητική απάντηση, ακόμη κι όταν αυτή παραβλέπει κρίσιμες λεπτομέρειες," εξήγησε ο συν-ανώτερος συγγραφέας Δρ. Eyal Klang, Επικεφαλής της Γενετικής ΤΝ στο Τμήμα Τεχνητής Νοημοσύνης και Υγείας του Ανθρώπου Windreich του Mount Sinai. "Στην υγεία, όπου οι αποφάσεις έχουν σοβαρές ηθικές και κλινικές επιπτώσεις, η παράλειψη αυτών των αποχρώσεων μπορεί να έχει πραγματικές συνέπειες για τους ασθενείς."

Σε ένα αποκαλυπτικό τεστ, οι ερευνητές τροποποίησαν το κλασικό δίλημμα του "Χειρουργού" δηλώνοντας ρητά ότι ο πατέρας του αγοριού ήταν ο χειρουργός, αφαιρώντας κάθε αμφισημία. Παρά αυτή τη σαφήνεια, αρκετά μοντέλα τεχνητής νοημοσύνης συνέχισαν λανθασμένα να επιμένουν ότι ο χειρουργός έπρεπε να είναι η μητέρα του αγοριού, δείχνοντας πώς η ΤΝ μπορεί να προσκολλάται σε οικεία μοτίβα ακόμη και όταν αυτά διαψεύδονται από νέες πληροφορίες.

Παρομοίως, όταν παρουσιάστηκε σενάριο με θρησκευόμενους γονείς και μετάγγιση αίματος, τα μοντέλα τεχνητής νοημοσύνης συνέστησαν να παρακαμφθεί η άρνηση των γονέων, ακόμη και όταν το σενάριο ανέφερε ξεκάθαρα ότι οι γονείς είχαν ήδη συναινέσει στη διαδικασία.

"Απλές τροποποιήσεις σε οικείες περιπτώσεις ανέδειξαν τυφλά σημεία που οι κλινικοί γιατροί δεν μπορούν να αγνοήσουν," σημείωσε η κύρια συγγραφέας Δρ. Shelly Soffer από το Ινστιτούτο Αιματολογίας του Rabin Medical Center. "Αυτό υπογραμμίζει γιατί η ανθρώπινη εποπτεία πρέπει να παραμείνει κεντρική όταν ενσωματώνουμε την ΤΝ στην φροντίδα των ασθενών."

Η ερευνητική ομάδα, εμπνευσμένη από το βιβλίο του Daniel Kahneman "Σκέψη, Αργή και Γρήγορη", διαπίστωσε ότι η ΤΝ εμφανίζει την ίδια τάση για γρήγορη, διαισθητική σκέψη όπως και οι άνθρωποι, αλλά συχνά της λείπει η ικανότητα να μεταβαίνει σε πιο στοχαστική, αναλυτική σκέψη όταν απαιτείται.

Στο μέλλον, η ομάδα του Mount Sinai σχεδιάζει να ιδρύσει ένα "εργαστήριο διασφάλισης ΤΝ" για τη συστηματική αξιολόγηση του τρόπου με τον οποίο διαφορετικά μοντέλα διαχειρίζονται την πολυπλοκότητα της πραγματικής ιατρικής πράξης. Οι ερευνητές τονίζουν ότι η τεχνητή νοημοσύνη πρέπει να συμπληρώνει την κλινική εμπειρία και όχι να την αντικαθιστά, ειδικά σε ηθικά ευαίσθητες ή υψηλού ρίσκου αποφάσεις.

Source:

Latest News