Icahn School of Medicine at Mount Sinai -yliopiston tutkijat ovat paljastaneet vaarallisen puutteen siinä, miten tekoäly käsittelee lääketieteellisiä eettisiä päätöksiä. Löydös tuo esiin rajoituksia, joilla voi olla vakavia seurauksia potilaiden hoidossa.
Tutkimus julkaistiin 22. heinäkuuta 2025 lehdessä NPJ Digital Medicine. Siinä testattiin useita kaupallisesti saatavilla olevia suuria kielimalleja (LLM), mukaan lukien ChatGPT, muokatuilla versioilla tunnetuista eettisistä dilemmoista. Tutkimusryhmää johtivat tohtori Eyal Klang, Mount Sinain generatiivisen tekoälyn johtaja, ja tohtori Girish Nadkarni, Windreichin tekoälyn ja ihmisen terveyden laitoksen johtaja. He havaitsivat, että tekoälyjärjestelmät tekivät usein perustavanlaatuisia virheitä, kun ne kohtasivat hieman muutettuja tilanteita.
Eräässä paljastavassa esimerkissä tutkijat muokkasivat klassista "kirurgin dilemmaa" lisäämällä nimenomaisesti tiedon, että pojan isä oli kirurgi. Tästä huolimatta useat tekoälymallit väittivät virheellisesti, että kirurgin täytyi olla pojan äiti, mikä osoittaa, kuinka tekoäly voi pitäytyä tutuissa kaavoissa, vaikka uusi tieto kumoaisi ne.
Toisessa testissä käsiteltiin tilannetta, jossa uskonnolliset vanhemmat ja verensiirto olivat kyseessä. Kun tutkijat muuttivat skenaariota siten, että vanhemmat olivat jo antaneet suostumuksensa toimenpiteeseen, monet tekoälymallit suosittelivat silti kieltäytymisen ohittamista, vaikka kieltäytymistä ei enää ollut.
"Tekoäly voi olla erittäin tehokas ja nopea, mutta tutkimuksemme osoitti, että se saattaa turvautua tutuimpaan tai intuitiivisimpaan vastaukseen, vaikka se jättäisi huomiotta olennaisia yksityiskohtia", selitti tohtori Klang. "Terveydenhuollossa, jossa päätöksillä on usein vakavia eettisiä ja kliinisiä seurauksia, näiden vivahteiden ohittaminen voi vaikuttaa potilaisiin todellisesti."
Tutkimuksen inspiraationa toimi Daniel Kahnemanin kirja "Ajattelu, nopeasti ja hitaasti", jossa verrataan nopeita, intuitiivisia reaktioita hitaampaan, analyyttiseen päättelyyn. Havainnot viittaavat siihen, että tekoälymallit, kuten ihmisetkin, voivat kamppailla siirtyessään näiden kahden ajattelutavan välillä.
Vaikka tutkijat korostavat, että tekoälyllä on yhä arvokkaita käyttökohteita lääketieteessä, he painottavat harkitun ihmisen valvonnan tarvetta erityisesti tilanteissa, joissa vaaditaan eettistä herkkyyttä tai vivahteikasta harkintaa. "Nämä työkalut voivat olla uskomattoman hyödyllisiä, mutta ne eivät ole erehtymättömiä", huomautti tohtori Nadkarni. "Tekoäly toimii parhaiten kliinisen asiantuntemuksen tukena, ei sen korvaajana, erityisesti monimutkaisissa tai korkean riskin päätöksissä."