menu
close

MIT Natuklasan ang Pangunahing Mekanismo sa Likod ng Bias ng LLM

Natukoy ng mga mananaliksik mula sa MIT ang pinagmumulan ng position bias sa malalaking language model (LLM), isang phenomenon kung saan mas binibigyang-diin ng mga modelo ang impormasyon sa simula at dulo ng mga dokumento habang napapabayaan ang gitna. Ipinapakita ng kanilang teoretikal na balangkas kung paano ang mga partikular na desisyon sa disenyo ng arkitektura ng modelo, lalo na ang causal masking at attention mechanisms, ay likas na lumilikha ng bias na ito kahit wala ito sa training data. Ang breakthrough na ito ay nagbibigay ng mahalagang pananaw para sa pagbuo ng mas tumpak at mapagkakatiwalaang mga AI system.
MIT Natuklasan ang Pangunahing Mekanismo sa Likod ng Bias ng LLM

Nakamit ng mga mananaliksik mula sa MIT ang isang mahalagang tagumpay sa pag-unawa kung bakit nagpapakita ng bias ang malalaking language model (LLM), na maaaring magbukas ng daan para sa mas mapagkakatiwalaang mga AI system.

Natuklasan ng grupo na ang LLM ay mayroong "position bias," o ang tendensiyang mas bigyang-halaga ang impormasyon sa simula at dulo ng mga dokumento habang napapabayaan ang nilalaman sa gitna. May praktikal itong epekto—halimbawa, kapag gumamit ang isang abogado ng LLM-powered na assistant upang maghanap sa isang 30-pahinang dokumento, mas malamang na matagpuan ng sistema ang mahalagang teksto kung ito ay nasa unang bahagi o huling bahagi ng dokumento.

Ang nagpapabago sa larangang ito ay natukoy ng mga mananaliksik ang ugat ng problema mismo sa arkitektura ng modelo. "Itinuturing na black box ang mga modelong ito, kaya bilang isang gumagamit ng LLM, malamang ay hindi mo alam na ang position bias ay maaaring magdulot ng inconsistency sa iyong modelo," paliwanag ni Xinyi Wu, graduate student sa MIT at pangunahing may-akda ng pananaliksik.

Bumuo ang grupo ng isang graph-based na teoretikal na balangkas upang suriin kung paano dumadaloy ang impormasyon sa machine-learning architecture ng LLM. Ipinakita ng kanilang pagsusuri na ang ilang desisyon sa disenyo—lalo na ang causal masking at attention mechanisms—ay nagdudulot ng likas na bias ng mga modelo patungo sa simula ng input, kahit wala naman ito sa training data.

"Bagamat totoo na madalas na mas mahalaga ang mga naunang salita at huling salita sa isang pangungusap, kung gagamitin ang LLM sa mga gawain na hindi natural language generation, tulad ng ranking o information retrieval, maaaring maging lubhang mapanganib ang mga bias na ito," dagdag ni Wu.

Ang pananaliksik na ito ay sumusuporta sa iba pang mga kamakailang pag-aaral na nagpapakita na ang LLM ay naglalaman ng iba’t ibang anyo ng bias. Sa isang hiwalay na pag-aaral mula sa Princeton University, natuklasan na kahit ang mga LLM na sinadyang gawing unbiased ay nakakabuo pa rin ng implicit bias na katulad ng mga tao na sadyang tinatanggihan ang stereotypes ngunit hindi sinasadyang naipapasa pa rin ang mga ito. Gamit ang mga psychology-inspired na sukatan, natukoy ng mga mananaliksik ang malawakang stereotype bias sa lahi, kasarian, relihiyon, at kalusugan sa walong value-aligned na modelo.

Ang mga natuklasan ng MIT ay nagbibigay, ayon kay Stanford professor Amin Saberi, ng "bihirang teoretikal na pananaw sa attention mechanism na nasa puso ng transformer model," na nagbibigay ng parehong matematikal na kaliwanagan at praktikal na pananaw sa mga aktuwal na sistema. Habang lalong isinasama ang LLM sa mahahalagang aplikasyon, ang pag-unawa at pagtugon sa mga likas na bias na ito ay magiging mahalaga para sa pagbuo ng patas at mapagkakatiwalaang mga teknolohiyang AI.

Source:

Latest News