Pretraining in Actor-Critic Reinforcement Learning for Robot Locomotion
Dit artikel introduceert een pretraining-finetuning-paradigma voor robotlocomotie waarbij een op exploratie gebaseerde Inverse Dynamics Model (PIDM) wordt gebruikt om Actor-Critic-algoritmen als PPO warm te starten, wat resulteert in een aanzienlijke verbetering van de sample-efficiëntie en taakprestaties vergeleken met willekeurige initialisatie.