科学家们发现,尽管大语言模型(LLMs)与人脑在结构和能耗上存在巨大差异,但它们在处理语言时展现出惊人的相似性。
谷歌研究院、普林斯顿大学、纽约大学和耶路撒冷希伯来大学的联合研究显示,在自然对话过程中,人脑的神经活动与LLMs内部的上下文嵌入表现出线性一致性。研究人员发现,两者共享三项基本的计算原则:在听到下一个词之前进行预测,将预测与实际输入进行比对以计算“惊奇度”,并依赖上下文嵌入对词语进行有意义的表征。
“我们证明,深度语言模型生成的词级内部嵌入,与人脑中已知负责语言理解和生成的区域的神经活动模式高度一致,”研究人员在发表于《自然神经科学》的论文中指出。
不过,二者也存在显著差异。LLMs可以同时处理数十万词,而人脑则是逐词串行处理语言。更重要的是,人脑仅消耗约20瓦功率便能完成复杂的认知任务,而现代LLMs则需要庞大的能量支持。
发表于《自然人类行为》的另一项研究解释道:“大脑网络通过增加更多类型的神经元,并在不同模块内实现选择性连接,从而提升效率,而不是简单地增加神经元、层数和连接数。”
令人意外的是,BrainBench的研究人员发现,LLMs在预测神经科学实验结果方面已超过人类专家。其专用模型BrainGPT的准确率达到81%,而神经科学家为63%。与人类专家类似,LLMs在对预测更有信心时,准确率也更高。
这些发现预示,受大脑启发的计算方式有望极大提升AI的能效。研究人员正在探索更接近生物神经元机制的脉冲神经网络(SNNs),未来或可应用于节能搜救无人机、高级神经假体等领域。
随着LLMs不断向类脑处理方式演进,人工智能与生物智能的界限日益模糊,也引发了关于认知本质的深刻思考。