Penyelidik di MIT telah mencapai penemuan penting dalam memahami mengapa model bahasa besar (LLM) menunjukkan bias, sekali gus membuka jalan ke arah sistem AI yang lebih boleh dipercayai.
Pasukan penyelidik mendapati bahawa LLM mengalami "bias kedudukan", iaitu kecenderungan untuk terlalu menekankan maklumat di permulaan dan penghujung dokumen sambil mengabaikan kandungan di bahagian tengah. Bias ini mempunyai implikasi praktikal—contohnya, apabila seorang peguam menggunakan pembantu berkuasa LLM untuk mencari maklumat dalam dokumen setebal 30 muka surat, sistem lebih cenderung menemui teks berkaitan jika ia terletak di halaman awal atau akhir.
Apa yang menjadikan penemuan ini begitu penting ialah para penyelidik berjaya mengenal pasti punca utama bias tersebut dalam seni bina model itu sendiri. "Model-model ini adalah kotak hitam, jadi sebagai pengguna LLM, anda mungkin tidak sedar bahawa bias kedudukan boleh menyebabkan model anda menjadi tidak konsisten," jelas Xinyi Wu, pelajar siswazah MIT dan penulis utama kajian tersebut.
Pasukan ini membina kerangka teori berasaskan graf untuk menganalisis bagaimana maklumat mengalir melalui seni bina pembelajaran mesin LLM. Analisis mereka mendedahkan bahawa beberapa pilihan reka bentuk—khususnya penutupan kausal dan mekanisme perhatian—memberikan model kecenderungan semula jadi terhadap permulaan input, walaupun bias tersebut tidak wujud dalam data latihan.
"Walaupun sering benar bahawa perkataan awal dan akhir dalam ayat lebih penting, jika LLM digunakan untuk tugas yang bukan penjanaan bahasa semula jadi, seperti penarafan atau pencarian maklumat, bias ini boleh menjadi sangat merugikan," kata Wu.
Penyelidikan ini melengkapi kajian-kajian terkini lain yang menunjukkan bahawa LLM menyimpan pelbagai bentuk bias. Satu kajian berasingan dari Universiti Princeton mendapati bahawa walaupun LLM yang secara eksplisit tidak berat sebelah masih membentuk bias tersirat yang serupa dengan manusia yang secara sedar menolak stereotaip tetapi secara tidak sedar mengekalkannya. Dengan menggunakan ukuran yang diinspirasikan oleh psikologi, penyelidik mengesan bias stereotaip yang meluas merentasi kategori kaum, jantina, agama, dan kesihatan dalam lapan model yang sejajar dengan nilai.
Penemuan MIT ini menawarkan apa yang dipanggil Profesor Amin Saberi dari Stanford sebagai "lensa teori yang jarang berlaku ke dalam mekanisme perhatian yang menjadi teras model transformer," memberikan kejelasan matematik serta pandangan praktikal terhadap sistem dunia sebenar. Memandangkan LLM semakin banyak digunakan dalam aplikasi kritikal, memahami dan menangani bias-bias semula jadi ini akan menjadi penting untuk membangunkan teknologi AI yang adil dan boleh dipercayai.