Bilim insanları, büyük dil modelleri (LLM'ler) ile insan beyninin dili nasıl işlediği arasında, mimari ve enerji gereksinimleri açısından büyük farklılıklara rağmen çarpıcı paralellikler keşfetti.
Google Research, Princeton Üniversitesi, NYU ve Kudüs İbrani Üniversitesi'nin ortaklaşa yürüttüğü bir çalışma, insan beynindeki sinirsel aktivitenin, doğal konuşmalar sırasında LLM'lerin içsel bağlamsal gömülmeleriyle doğrusal olarak hizalandığını ortaya koydu. Araştırmacılar, her iki sistemin de üç temel hesaplama ilkesini paylaştığını buldu: Bir sonraki kelimeyi duymadan önce tahmin etmek, tahminleri gerçek girdilerle karşılaştırarak "şaşkınlık" (surprise) hesaplamak ve kelimeleri anlamlı şekilde temsil etmek için bağlamsal gömülmelere güvenmek.
"Derin dil modelleri tarafından üretilen kelime düzeyindeki içsel gömülmelerin, konuşma anlama ve üretimiyle ilişkili beyin bölgelerinde gözlemlenen sinirsel aktivite örüntüleriyle uyumlu olduğunu gösteriyoruz," diye belirtti araştırmacılar Nature Neuroscience dergisinde yayımlanan bulgularında.
Ancak önemli farklılıklar da mevcut. LLM'ler aynı anda yüz binlerce kelimeyi işlerken, insan beyni dili ardışık olarak, kelime kelime işliyor. Daha da önemlisi, insan beyni karmaşık bilişsel görevleri olağanüstü bir enerji verimliliğiyle yerine getiriyor; yalnızca yaklaşık 20 watt güç tüketirken, modern LLM'ler çok daha fazla enerjiye ihtiyaç duyuyor.
Nature Human Behaviour'da yayımlanan bir çalışmaya göre, "Beyin ağları, verimliliklerini, sadece daha fazla nöron, katman ve bağlantı eklemek yerine, farklı nöron tiplerini ve ağ içindeki çeşitli modüllerde seçici bağlantıları artırarak sağlıyor."
Beklenmedik bir gelişmeyle, BrainBench araştırmacıları, LLM'lerin artık nörobilimsel deney sonuçlarını tahmin etmede insan uzmanları geride bıraktığını buldu. BrainGPT adlı özel modelleri, %81 doğruluk oranına ulaşırken, nörobilimcilerde bu oran %63 oldu. İnsan uzmanlarda olduğu gibi, LLM'ler de tahminlerinde daha fazla güven ifade ettiklerinde daha yüksek doğruluk gösterdi.
Bu bulgular, beyin esinli hesaplamaların yapay zekâ verimliliğini büyük ölçüde artırabileceği bir geleceğe işaret ediyor. Araştırmacılar, biyolojik nöronları daha yakından taklit eden sivrilen sinir ağlarını (spiking neural networks - SNN) inceliyor; bu da enerji verimli arama-kurtarma dronlarından gelişmiş nöral protezlere kadar çeşitli uygulamalara kapı aralayabilir.
LLM'ler beyne daha çok benzeyen işleme yöntemlerine doğru evrilmeye devam ettikçe, yapay ve biyolojik zekâ arasındaki sınır giderek daha da belirsizleşiyor ve bilişin doğasına dair derin soruları gündeme getiriyor.