Para ilmuwan menemukan kemiripan mencolok antara cara large language models (LLM) dan otak manusia memproses bahasa, meskipun keduanya memiliki arsitektur dan kebutuhan energi yang sangat berbeda.
Sebuah studi kolaboratif oleh Google Research, Princeton University, NYU, dan Hebrew University of Jerusalem menemukan bahwa aktivitas saraf di otak manusia selaras secara linear dengan embedding kontekstual internal LLM selama percakapan alami. Para peneliti menemukan bahwa kedua sistem ini berbagi tiga prinsip komputasi mendasar: mereka memprediksi kata berikutnya sebelum mendengarnya, mencocokkan prediksi dengan input aktual untuk menghitung tingkat kejutan, dan mengandalkan embedding kontekstual untuk merepresentasikan kata secara bermakna.
"Kami menunjukkan bahwa embedding internal pada level kata yang dihasilkan oleh deep language models selaras dengan pola aktivitas saraf di wilayah otak yang telah diketahui terkait pemahaman dan produksi ujaran," tulis para peneliti dalam temuan yang dipublikasikan di Nature Neuroscience.
Namun, terdapat perbedaan signifikan. Sementara LLM dapat memproses ratusan ribu kata secara bersamaan, otak manusia memproses bahasa secara serial, kata demi kata. Yang lebih penting, otak manusia melakukan tugas kognitif kompleks dengan efisiensi energi luar biasa, hanya menggunakan sekitar 20 watt daya, dibanding kebutuhan energi besar LLM modern.
"Jaringan otak mencapai efisiensi dengan menambah lebih banyak tipe neuron yang beragam dan konektivitas selektif di antara berbagai tipe neuron dalam modul-modul berbeda di jaringan, bukan sekadar menambah jumlah neuron, lapisan, dan koneksi," jelas sebuah studi yang diterbitkan di Nature Human Behaviour.
Dalam perkembangan mengejutkan, peneliti di BrainBench menemukan bahwa LLM kini melampaui pakar manusia dalam memprediksi hasil eksperimen ilmu saraf. Model khusus mereka, BrainGPT, mencapai akurasi 81% dibanding 63% pada ahli ilmu saraf. Seperti para pakar manusia, LLM juga menunjukkan akurasi lebih tinggi saat mereka lebih yakin pada prediksinya.
Temuan ini membuka peluang masa depan di mana komputasi terinspirasi otak dapat secara dramatis meningkatkan efisiensi AI. Para peneliti kini mengeksplorasi spiking neural networks (SNN) yang lebih meniru neuron biologis, berpotensi memungkinkan aplikasi mulai dari drone pencarian dan penyelamatan hemat energi hingga prostetik saraf canggih.
Seiring LLM terus berkembang menuju pemrosesan yang lebih menyerupai otak, batas antara kecerdasan buatan dan biologis semakin kabur, menimbulkan pertanyaan mendalam tentang hakikat kognisi itu sendiri.