Prin utilizarea unei tehnici numite „antrenare temporară în timpul rulării”, oamenii de știință au demonstrat că performanța acestor modele poate crește de până la șase ori în comparație cu metodele convenționale de tip „învățare din exemple”.
„Modelele mari de limbaj nu pot învăța singure noi abilități după ce sunt lansate. Dar, am arătat că, dacă le forțăm puțin să învețe efectiv, îmbunătățirile sunt spectaculoase”, a declarat Ekin Akyürek, doctorand MIT și autor principal al studiului.
Metoda presupune ajustarea temporară a unor parametri interni ai modelului folosind un set restrâns de date specifice noii sarcini. Aceste ajustări nu sunt permanente și modelul revine la forma sa inițială după generarea răspunsului.
Cercetătorii subliniază că această abordare este eficientă energetic
Aceasta poate fi aplicată punctual, doar pentru sarcinile considerate „foarte dificile”.
Testele efectuate p...