Aligning Language Models from User Interactions
Dit paper introduceert een schaalbare zelfdistillatiemethode die taalmodellen in staat stelt om direct uit natuurlijke meer-draads gebruikersinteracties te leren, waardoor de modellen hun uitlijning, instructie-opvolging en personalisatie kunnen verbeteren zonder expliciete feedback.