과학자들은 대형 언어 모델(LLM)과 인간 두뇌가 언어를 처리하는 방식에 있어, 구조와 에너지 요구 사항이 크게 다름에도 불구하고 놀라운 유사점이 존재함을 밝혀냈다.
구글 리서치, 프린스턴 대학교, 뉴욕 대학교(NYU), 예루살렘 히브리 대학교 공동 연구팀은 자연스러운 대화 상황에서 인간 두뇌의 신경 활동이 LLM의 내부 맥락 임베딩과 선형적으로 일치한다는 사실을 발견했다. 연구진은 두 시스템 모두 세 가지 핵심 계산 원리를 공유한다고 밝혔다. 즉, 다음에 올 단어를 미리 예측하고, 실제 입력과 비교해 놀람(surprise)을 계산하며, 맥락 임베딩을 활용해 단어의 의미를 표현한다는 것이다.
"딥러닝 언어 모델이 생성하는 단어 수준의 내부 임베딩이, 언어 이해와 생성에 관여하는 인간 두뇌의 주요 영역에서 나타나는 신경 활동 패턴과 일치함을 입증했습니다."라고 연구진은 네이처 뉴로사이언스(Nature Neuroscience)에 발표된 논문에서 밝혔다.
하지만 중요한 차이점도 존재한다. LLM은 한 번에 수십만 단어를 병렬로 처리하는 반면, 인간 두뇌는 단어를 하나씩 순차적으로 처리한다. 더욱이, 인간 두뇌는 약 20와트의 전력만으로 복잡한 인지 작업을 수행하는 반면, 최신 LLM은 막대한 에너지를 소모한다.
"두뇌 네트워크는 단순히 뉴런, 계층, 연결을 늘리는 대신, 다양한 유형의 뉴런과 이들 간의 선택적 연결을 네트워크 내 여러 모듈에 추가함으로써 효율성을 달성합니다."라고 네이처 휴먼 비헤이비어(Nature Human Behaviour)에 실린 또 다른 연구는 설명한다.
놀라운 사실로, BrainBench 연구진은 LLM이 신경과학 실험 결과 예측에서 인간 전문가를 능가한다고 밝혔다. 이들이 개발한 특화 모델 BrainGPT는 81%의 정확도를 기록했으며, 이는 신경과학자의 63%보다 높았다. 인간 전문가와 마찬가지로, LLM도 자신감이 높을수록 더 정확한 예측을 보였다.
이러한 발견은 두뇌 영감을 받은 컴퓨팅이 AI의 효율성을 획기적으로 개선할 수 있음을 시사한다. 연구진은 생물학적 뉴런을 더 가깝게 모방하는 스파이킹 뉴럴 네트워크(SNN)를 탐구 중이며, 이를 통해 에너지 효율적인 수색·구조 드론부터 첨단 신경 보철까지 다양한 응용이 가능할 것으로 기대된다.
LLM이 점점 더 두뇌와 유사한 처리를 향해 진화함에 따라, 인공 지능과 생물학적 지능의 경계는 점점 희미해지고 있으며, 이는 인지의 본질에 대한 근본적인 질문을 던지고 있다.