menu
close

LLM dan Otak Manusia: Persamaan Mengejutkan Muncul

Penyelidikan terkini mendedahkan persamaan luar biasa antara model bahasa besar (LLM) dan pemprosesan otak manusia, di mana kedua-dua sistem menggunakan ramalan perkataan seterusnya dan pemahaman konteks. Kajian menunjukkan LLM kini mampu mengatasi pakar manusia dalam meramalkan hasil neurosains, walaupun masih ribuan kali kurang cekap tenaga berbanding otak. Penemuan ini mencadangkan masa depan di mana pengkomputeran berinspirasi otak boleh merevolusikan pembangunan AI.
LLM dan Otak Manusia: Persamaan Mengejutkan Muncul

Para saintis telah menemui persamaan yang ketara antara cara model bahasa besar (LLM) dan otak manusia memproses bahasa, walaupun kedua-duanya mempunyai seni bina dan keperluan tenaga yang sangat berbeza.

Satu kajian kolaboratif oleh Google Research, Universiti Princeton, NYU, dan Universiti Ibrani Jerusalem mendapati bahawa aktiviti neural dalam otak manusia sejajar secara linear dengan pembenaman kontekstual dalaman LLM semasa perbualan semula jadi. Para penyelidik mendapati kedua-dua sistem berkongsi tiga prinsip pengiraan asas: mereka meramalkan perkataan yang akan datang sebelum mendengarnya, membandingkan ramalan dengan input sebenar untuk mengira tahap kejutan, dan bergantung pada pembenaman kontekstual untuk mewakili perkataan secara bermakna.

"Kami menunjukkan bahawa pembenaman dalaman pada peringkat perkataan yang dihasilkan oleh model bahasa mendalam sejajar dengan corak aktiviti neural di kawasan otak yang telah dikenal pasti berkaitan dengan pemahaman dan penghasilan pertuturan," kata para penyelidik dalam penemuan mereka yang diterbitkan dalam Nature Neuroscience.

Namun, terdapat perbezaan ketara. Walaupun LLM memproses ratusan ribu perkataan secara serentak, otak manusia memproses bahasa secara bersiri, satu perkataan demi satu. Lebih penting lagi, otak manusia melaksanakan tugas kognitif kompleks dengan kecekapan tenaga yang luar biasa, hanya menggunakan sekitar 20 watt kuasa, berbanding keperluan tenaga besar LLM moden.

"Rangkaian otak mencapai kecekapan mereka dengan menambah lebih banyak jenis neuron yang pelbagai dan sambungan selektif antara pelbagai jenis neuron dalam modul rangkaian yang berbeza, bukannya sekadar menambah lebih banyak neuron, lapisan dan sambungan," jelas satu kajian yang diterbitkan dalam Nature Human Behaviour.

Dalam perkembangan mengejutkan, penyelidik di BrainBench mendapati LLM kini mengatasi pakar manusia dalam meramalkan hasil eksperimen neurosains. Model khusus mereka, BrainGPT, mencapai ketepatan 81% berbanding 63% untuk pakar neurosains. Seperti pakar manusia, LLM menunjukkan ketepatan lebih tinggi apabila mereka menyatakan keyakinan lebih tinggi terhadap ramalan mereka.

Penemuan ini mencadangkan masa depan di mana pengkomputeran berinspirasi otak boleh meningkatkan kecekapan AI secara dramatik. Penyelidik sedang meneroka rangkaian neural berdetik (SNN) yang lebih hampir meniru neuron biologi, berpotensi membolehkan aplikasi daripada dron mencari dan menyelamat cekap tenaga hinggalah prostetik neural canggih.

Ketika LLM terus berkembang ke arah pemprosesan yang lebih mirip otak, sempadan antara kecerdasan buatan dan biologi semakin kabur, menimbulkan persoalan mendalam tentang sifat kognisi itu sendiri.

Source: Lesswrong.com

Latest News