Pretrained Vision-Language-Action Models are Surprisingly Resistant to Forgetting in Continual Learning
Este trabalho demonstra que modelos pré-treinados de Visão-Linguagem-Ação (VLA) são surpreendentemente resistentes ao esquecimento no aprendizado contínuo, permitindo que técnicas simples de replay de experiências adquiram novas habilidades sem esquecer as anteriores, graças ao papel fundamental do pré-treinamento em grande escala.