Oamenii de știință au descoperit paralele uimitoare între modul în care modelele lingvistice de mari dimensiuni (LLM-uri) și creierul uman procesează limbajul, în ciuda arhitecturilor și necesarului energetic radical diferite.
Un studiu colaborativ realizat de Google Research, Universitatea Princeton, NYU și Universitatea Ebraică din Ierusalim a constatat că activitatea neuronală din creierul uman se aliniază liniar cu embedding-urile contextuale interne ale LLM-urilor în timpul conversațiilor naturale. Cercetătorii au descoperit că ambele sisteme împărtășesc trei principii computaționale fundamentale: prezic cuvintele următoare înainte de a le auzi, compară predicțiile cu inputul real pentru a calcula surpriza și se bazează pe embedding-uri contextuale pentru a reprezenta cuvintele într-un mod semnificativ.
„Demonstrăm că embedding-urile interne la nivel de cuvânt generate de modelele lingvistice profunde se aliniază cu tiparele de activitate neuronală din regiunile cerebrale consacrate pentru înțelegerea și producția vorbirii”, au notat cercetătorii în concluziile publicate în Nature Neuroscience.
Totuși, există diferențe semnificative. În timp ce LLM-urile procesează simultan sute de mii de cuvinte, creierul uman procesează limbajul în serie, cuvânt cu cuvânt. Mai important, creierul uman realizează sarcini cognitive complexe cu o eficiență energetică remarcabilă, consumând doar aproximativ 20 de wați, comparativ cu necesarul uriaș de energie al LLM-urilor moderne.
„Rețelele cerebrale își ating eficiența adăugând mai multe tipuri diverse de neuroni și conectivitate selectivă între diferite tipuri de neuroni în module distincte ale rețelei, nu doar prin adăugarea unui număr mai mare de neuroni, straturi și conexiuni”, explică un studiu publicat în Nature Human Behaviour.
Într-o evoluție surprinzătoare, cercetătorii de la BrainBench au descoperit că LLM-urile depășesc acum experții umani în prezicerea rezultatelor experimentale din neuroștiințe. Modelul lor specializat, BrainGPT, a atins o acuratețe de 81% față de 63% pentru neurologi. La fel ca experții umani, LLM-urile au prezentat o acuratețe mai mare atunci când și-au exprimat o încredere sporită în predicțiile lor.
Aceste descoperiri sugerează un viitor în care calculul inspirat de creier ar putea îmbunătăți dramatic eficiența AI. Cercetătorii explorează rețele neuronale cu impulsuri (SNN-uri) care imită mai fidel neuronii biologici, ceea ce ar putea permite aplicații de la drone de căutare și salvare eficiente energetic până la proteze neurale avansate.
Pe măsură ce LLM-urile evoluează spre o procesare tot mai apropiată de cea a creierului, granița dintre inteligența artificială și cea biologică devine tot mai neclară, ridicând întrebări profunde despre natura cogniției însăși.