menu
close

Tekoälymallit epäonnistuvat peruslääketieteellisissä eettisissä testeissä, Mount Sinai -tutkimus paljastaa

Mount Sinain ja Rabin Medical Centerin tutkijoiden uraauurtava tutkimus osoittaa, että jopa edistyneimmät tekoälymallit, kuten ChatGPT, tekevät yllättävän perustason virheitä lääketieteellisissä eettisissä tilanteissa. 24. heinäkuuta 2025 npj Digital Medicine -lehdessä julkaistu tutkimus paljastaa, että tekoälyjärjestelmät turvautuvat usein tuttuihin mutta vääriin vastauksiin, kun niille esitetään hieman muunneltuja eettisiä pulmia. Tämä herättää vakavia huolia tekoälyn luotettavuudesta terveydenhuollossa. Tulokset korostavat ihmisen valvonnan kriittistä merkitystä tekoälyn hyödyntämisessä lääketieteellisessä päätöksenteossa.
Tekoälymallit epäonnistuvat peruslääketieteellisissä eettisissä testeissä, Mount Sinai -tutkimus paljastaa

Icahn School of Medicine at Mount Sinain ja israelilaisen Rabin Medical Centerin tutkijat ovat havainneet huolestuttavan puutteen siinä, miten tekoäly käsittelee lääketieteellisiä eettisiä päätöksiä – puute, joka voi vaarantaa potilasturvallisuuden, ellei siihen puututa.

  1. heinäkuuta npj Digital Medicine -lehdessä julkaistussa tutkimuksessa testattiin useita kaupallisia suuria kielimalleja (LLM), mukaan lukien ChatGPT, hieman muunnelluilla versioilla tunnetuista eettisistä dilemmoista. Tulokset osoittivat, että tekoäly turvautui johdonmukaisesti intuitiivisiin mutta vääriin vastauksiin, vaikka sille annettiin selvästi ristiriitaista tietoa.

"Tekoäly voi olla erittäin tehokas ja suorituskykyinen, mutta tutkimuksemme osoitti, että se saattaa valita tutun tai intuitiivisen vastauksen, vaikka se sivuuttaisi olennaisia yksityiskohtia", selittää tutkimuksen toinen vastuullinen kirjoittaja, tohtori Eyal Klang, Mount Sinain Windreichin tekoälyn ja ihmisen terveyden laitoksen generatiivisen tekoälyn johtaja. "Terveydenhuollossa, jossa päätöksillä on vakavia eettisiä ja kliinisiä seurauksia, näiden vivahteiden ohittaminen voi johtaa todellisiin potilasvahinkoihin."

Eräässä paljastavassa kokeessa tutkijat muokkasivat klassista "kirurgin ongelmaa" siten, että pojan isän kerrottiin olevan kirurgi, poistaen kaiken epäselvyyden. Tästä huolimatta useat tekoälymallit väittivät virheellisesti edelleen, että kirurgin täytyi olla pojan äiti, mikä osoittaa, kuinka tekoäly voi pitäytyä tutuissa kaavoissa, vaikka uusi tieto olisi ristiriidassa niiden kanssa.

Samoin tilanteessa, jossa uskonnolliset vanhemmat ja verensiirto olivat kyseessä, tekoälymallit suosittelivat vanhempien kieltäytymisen ohittamista, vaikka skenaariossa oli selvästi mainittu, että vanhemmat olivat jo antaneet suostumuksensa toimenpiteeseen.

"Pienetkin muutokset tuttuihin tapauksiin paljastivat sokeita pisteitä, joihin kliinikot eivät voi sortua", huomauttaa tutkimuksen ensimmäinen kirjoittaja, tohtori Shelly Soffer Rabin Medical Centerin hematologian instituutista. "Tämä korostaa, miksi ihmisen valvonta on välttämätöntä, kun tekoälyä otetaan käyttöön potilastyössä."

Tutkimusryhmä, jota inspiroi Daniel Kahnemanin kirja "Ajattelu, nopeasti ja hitaasti", havaitsi, että tekoälyllä on sama taipumus nopeaan, intuitiiviseen ajatteluun kuin ihmisillä, mutta siltä puuttuu usein kyky siirtyä harkitsevampaan, analyyttiseen päättelyyn tarpeen vaatiessa.

Jatkossa Mount Sinain tiimi aikoo perustaa "tekoälyn varmistuslaboratorion", jossa arvioidaan järjestelmällisesti, miten eri mallit selviytyvät todellisen maailman lääketieteellisestä monimutkaisuudesta. Tutkijat korostavat, että tekoälyn tulisi täydentää kliinistä asiantuntemusta, ei korvata sitä – erityisesti eettisesti herkissä tai korkean riskin päätöksissä.

Source:

Latest News