menu
close

LLMs und menschliche Gehirne: Überraschende Parallelen treten zutage

Aktuelle Forschungsergebnisse zeigen bemerkenswerte Ähnlichkeiten zwischen großen Sprachmodellen (LLMs) und der Sprachverarbeitung im menschlichen Gehirn. Beide Systeme nutzen Vorhersagen des nächsten Wortes und kontextuelles Verständnis. Studien belegen, dass LLMs inzwischen menschliche Experten bei der Vorhersage neurowissenschaftlicher Ergebnisse übertreffen, während sie jedoch tausendfach weniger energieeffizient als das Gehirn sind. Diese Erkenntnisse deuten auf eine Zukunft hin, in der gehirninspirierte Computertechnik die KI-Entwicklung revolutionieren könnte.
LLMs und menschliche Gehirne: Überraschende Parallelen treten zutage

Wissenschaftler haben auffällige Parallelen zwischen der Sprachverarbeitung großer Sprachmodelle (LLMs) und des menschlichen Gehirns entdeckt – trotz ihrer grundverschiedenen Architekturen und Energieanforderungen.

Eine gemeinsame Studie von Google Research, der Princeton University, der NYU und der Hebräischen Universität Jerusalem ergab, dass die neuronale Aktivität im menschlichen Gehirn während natürlicher Gespräche linear mit den internen kontextuellen Einbettungen von LLMs übereinstimmt. Die Forscher stellten fest, dass beide Systeme drei grundlegende rechnerische Prinzipien teilen: Sie sagen kommende Wörter voraus, bevor sie diese hören, vergleichen die Vorhersagen mit dem tatsächlichen Input, um Überraschung zu berechnen, und nutzen kontextuelle Einbettungen, um Wörtern eine sinnvolle Bedeutung zu verleihen.

„Wir zeigen, dass die auf Wortebene generierten internen Einbettungen von tiefen Sprachmodellen mit den neuronalen Aktivitätsmustern in etablierten Gehirnregionen übereinstimmen, die mit Sprachverständnis und -produktion assoziiert sind“, schreiben die Forscher in ihren in Nature Neuroscience veröffentlichten Ergebnissen.

Es gibt jedoch bedeutende Unterschiede. Während LLMs Hunderttausende Wörter gleichzeitig verarbeiten, arbeitet das menschliche Gehirn seriell, also Wort für Wort. Vor allem aber erledigt das menschliche Gehirn komplexe kognitive Aufgaben mit bemerkenswerter Energieeffizienz und verbraucht dabei nur etwa 20 Watt – im Vergleich zu den enormen Energieanforderungen moderner LLMs.

„Neuronale Netzwerke im Gehirn erreichen ihre Effizienz, indem sie mehr unterschiedliche Neuronentypen und eine selektive Konnektivität zwischen verschiedenen Neuronenarten in separaten Modulen des Netzwerks hinzufügen, anstatt einfach nur mehr Neuronen, Schichten und Verbindungen zu ergänzen“, erklärt eine in Nature Human Behaviour veröffentlichte Studie.

Für Überraschung sorgte eine weitere Entwicklung: Forscher von BrainBench fanden heraus, dass LLMs inzwischen menschliche Experten bei der Vorhersage neurowissenschaftlicher Versuchsergebnisse übertreffen. Ihr spezialisiertes Modell BrainGPT erreichte eine Genauigkeit von 81 Prozent, während Neurowissenschaftler auf 63 Prozent kamen. Wie menschliche Experten zeigten LLMs eine höhere Genauigkeit, wenn sie größere Zuversicht in ihre Vorhersagen äußerten.

Diese Erkenntnisse deuten auf eine Zukunft hin, in der gehirninspirierte Computertechnik die Effizienz von KI dramatisch steigern könnte. Forscher untersuchen aktuell sogenannte Spiking Neural Networks (SNNs), die biologische Neuronen noch genauer nachbilden und so Anwendungen von energieeffizienten Such- und Rettungsdrohnen bis hin zu fortschrittlichen neuronalen Prothesen ermöglichen könnten.

Während sich LLMs immer weiter in Richtung gehirnähnlicher Verarbeitung entwickeln, verschwimmt die Grenze zwischen künstlicher und biologischer Intelligenz zunehmend – und wirft grundlegende Fragen nach dem Wesen der Kognition selbst auf.

Source: Lesswrong.com

Latest News