menu
close

LLM і людський мозок: несподівані паралелі

Останні дослідження виявили разючі подібності між великими мовними моделями (LLM) та обробкою мови людським мозком: обидві системи використовують передбачення наступного слова та контекстуальне розуміння. Дослідження показують, що LLM вже перевершують людських експертів у прогнозуванні результатів нейронаукових експериментів, хоча залишаються у тисячі разів менш енергоефективними за мозок. Ці відкриття вказують на майбутнє, в якому обчислення, натхненні мозком, можуть революціонізувати розвиток ШІ.
LLM і людський мозок: несподівані паралелі

Вчені виявили разючі паралелі між тим, як великі мовні моделі (LLM) і людський мозок обробляють мову, попри їхню кардинально різну архітектуру та енергоспоживання.

У спільному дослідженні Google Research, Принстонського університету, Нью-Йоркського університету та Єврейського університету в Єрусалимі було встановлено, що нейронна активність у людському мозку лінійно узгоджується з внутрішніми контекстуальними векторами LLM під час природної розмови. Дослідники з’ясували, що обидві системи мають три фундаментальні обчислювальні принципи: вони передбачають наступні слова до того, як їх почують, порівнюють ці передбачення з реальним вхідним сигналом для обчислення "сюрпризу" та використовують контекстуальні вектори для осмисленого представлення слів.

"Ми демонструємо, що внутрішні векторні представлення слів, які генерують глибокі мовні моделі, узгоджуються з патернами нейронної активності у відомих ділянках мозку, пов’язаних із розумінням та продукуванням мовлення", — зазначають дослідники у своїй статті, опублікованій у Nature Neuroscience.

Однак існують і суттєві відмінності. Якщо LLM здатні обробляти сотні тисяч слів одночасно, то людський мозок сприймає мову послідовно, слово за словом. Ще важливіше, що мозок виконує складні когнітивні завдання з вражаючою енергоефективністю, споживаючи лише близько 20 ват потужності, тоді як сучасні LLM потребують значно більше енергії.

"Мережі мозку досягають своєї ефективності завдяки різноманіттю типів нейронів і вибірковим зв’язкам між різними типами нейронів у окремих модулях мережі, а не просто збільшуючи кількість нейронів, шарів і зв’язків", — пояснюється у дослідженні, опублікованому в Nature Human Behaviour.

Неочікувано дослідники з BrainBench встановили, що LLM вже перевершують людських експертів у прогнозуванні результатів нейронаукових експериментів. Їхня спеціалізована модель BrainGPT досягла точності 81% проти 63% у нейронауковців. Як і людські експерти, LLM демонстрували вищу точність, коли були впевнені у своїх прогнозах.

Ці результати свідчать про майбутнє, в якому обчислення, натхненні мозком, можуть суттєво підвищити ефективність ШІ. Дослідники вже вивчають спайкові нейронні мережі (SNN), які ще точніше імітують біологічні нейрони, що може відкрити шлях до енергоефективних дронів для пошуково-рятувальних операцій чи вдосконалених нейропротезів.

У міру того, як LLM продовжують еволюціонувати у напрямку більш мозкоподібної обробки, межа між штучним і біологічним інтелектом стає дедалі розмитішою, породжуючи глибокі питання щодо самої природи когніції.

Source: Lesswrong.com

Latest News