menu
close

MIT-jev AI trener poboljšava sposobnosti rješavanja problema kod jezičnih modela

Istraživači s MIT-a razvili su CodeSteer, inteligentnog asistenta koji vodi velike jezične modele da se prebacuju između generiranja teksta i koda sve dok točno ne odgovore na složene upite. Sustav je povećao točnost LLM-ova na simboličkim zadacima poput matematičkih problema i prostornog zaključivanja za više od 30%, omogućujući manje sofisticiranim modelima da nadmaše naprednije. Ovo otkriće moglo bi značajno unaprijediti sposobnosti umjetne inteligencije za rješavanje složenih zadataka u robotici, upravljanju opskrbnim lancem i drugim područjima koja zahtijevaju precizno računalno zaključivanje.
MIT-jev AI trener poboljšava sposobnosti rješavanja problema kod jezičnih modela

Veliki jezični modeli (LLM-ovi) izvrsni su u razumijevanju konteksta i pružanju logičnih odgovora putem tekstualnog zaključivanja. Ipak, često se muče s računalnim zadacima koji bi se bolje riješili korištenjem koda, poput uspoređivanja decimalnih brojeva ili rješavanja optimizacijskih problema.

Kako bi prevladali ovo ograničenje, istraživači s MIT-a razvili su CodeSteer, pametnog asistenta koji djeluje kao trener za veće jezične modele, usmjeravajući ih da se prebacuju između generiranja teksta i koda sve dok ne pronađu točan odgovor na upit.

"Inspirirali su nas ljudi. U sportu, trener možda nije bolji od zvijezde tima, ali ipak može dati korisne savjete kako bi usmjerio sportaša. Ova metoda usmjeravanja funkcionira i za LLM-ove," objašnjava Yongchao Chen, doktorand na Harvardu i MIT-u koji je radio na projektu.

Sam CodeSteer je manji LLM, dodatno treniran na modelu Llama-3-8B, koji pregledava upit i određuje je li za rješavanje problema prikladnije koristiti tekst ili kod. Zatim generira upute za veći LLM, vodeći ga prema odgovarajućoj metodi. Ako odgovor nije točan, CodeSteer nastavlja poticati LLM da isproba različite pristupe dok ne dođe do ispravnog rješenja.

Istraživači su otkrili da je nadogradnja GPT-4o s CodeSteerom povećala njegovu točnost na simboličkim zadacima za više od 30%, podižući prosječnu ocjenu uspješnosti s 53,3 na 86,4 kroz 37 zadataka. Ovo poboljšanje omogućilo mu je da nadmaši čak i naprednije modele poput OpenAI-jevog o1 (82,7) i DeepSeek R1 (76,8). Zanimljivo, CodeSteer je pokazao i snažnu mogućnost generalizacije, pružajući prosječno povećanje uspješnosti od 41,8% kada se primijeni na druge modele poput Claude, Mistral i GPT-3.5.

Za razvoj i testiranje CodeSteera, istraživači su stvorili SymBench, sveobuhvatni skup zadataka koji obuhvaća 37 simboličkih zadataka s prilagodljivom složenošću. Ti zadaci uključuju matematiku, prostorno zaključivanje, logiku, zaključivanje o redoslijedu i optimizacijske probleme.

Ovo otkriće moglo bi značajno unaprijediti sposobnosti umjetne inteligencije za rješavanje složenih zadataka koje je teško riješiti samo tekstualnim zaključivanjem, poput generiranja putanja za robote u neizvjesnim okruženjima ili planiranja isporuka u međunarodnim opskrbnim lancima.

"Nadogradnjom LLM-a sposobnošću pametnog korištenja koda, možemo uzeti model koji je već vrlo snažan i dodatno poboljšati njegovu učinkovitost," ističe Chen. Istraživači sada rade na optimizaciji CodeSteera kako bi ubrzali proces iterativnog davanja uputa te istražuju mogućnosti treniranja jedinstvenog modela koji može samostalno prelaziti između tekstualnog zaključivanja i generiranja koda bez potrebe za zasebnim asistentom.

Source: Techxplore

Latest News