Pretrained Vision-Language-Action Models are Surprisingly Resistant to Forgetting in Continual Learning

이 논문은 사전 훈련된 대규모 비전 - 언어 - 행동 (VLA) 모델이 기존 작은 모델에 비해 단순한 경험 재생 (Experience Replay) 만으로도 과거 기술의 망각에 놀라울 정도로 강건하며, 성능 저하 중에도 관련 지식을 유지하여 미세 조정을 통해 빠르게 재학습할 수 있음을 보여줍니다.

Huihan Liu, Changyeon Kim, Bo Liu, Minghuan Liu, Yuke Zhu

게시일 2026-03-05
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🧠 핵심 발견: "거인"은 기억력이 좋고, "어린이"는 쉽게 잊어버린다

1. 문제 상황: 로봇의 '망각'

로봇이 새로운 요리법을 배우는 동안, 이전에 배운 '청소'나 '정리' 기술을 완전히 잊어버리는 경우가 많습니다. 이를 **재앙적 망각 **(Catastrophic Forgetting)이라고 합니다.

  • **작은 로봇 **(기존 모델): 새로운 일을 배우면 머리가 새하얗게 변해 예전 일을 잊어버립니다. 이전 일을 기억하려면 아주 많은 양의 '과거 자료'를 계속 반복해서 공부해야 합니다.
  • **거대 로봇 **(VLA 모델): 인터넷과 책, 수많은 영상으로 미리 공부한 (Pretrained) 거대한 AI 입니다. 이 녀석들은 새로운 일을 배우면서도 이전 일을 거의 잊지 않습니다.

2. 놀라운 실험 결과: "작은 메모장"으로도 충분하다

연구진은 두 로봇에게 10 가지의 새로운 미션을 순서대로 주었습니다. 이때 과거의 경험을 기억하게 해주는 **'메모장 **(재현 버퍼, Replay Buffer)의 크기를 조절해 보았습니다.

  • 작은 로봇: 메모장이 작으면 (예: 과거 데이터 2% 만 저장) 금방 망각합니다. 이전 일을 기억하려면 메모장을 아주 크게 (20% 이상) 만들어야 했습니다.
  • **거대 로봇 **(VLA) 놀랍게도 메모장이 아주 작아도 (과거 데이터 2% 만 저장) 이전 일을 완벽하게 기억했습니다. 심지어 새로운 일을 배우는 과정에서 과거 실력이 더 좋아지기도 했습니다!

💡 비유:

  • 작은 로봇은 새로운 공부를 하면 머릿속 지우개에 지워져서 예전 공부를 다시 하려면 두꺼운 교과서를 다시 읽어야 합니다.
  • 거대 로봇은 이미 두꺼운 백과사전 (사전 학습) 을 다 읽은 상태라, 새로운 공부를 할 때 그 지식을 바탕으로 쉽게 연결합니다. 그래서 아주 얇은 메모장 (작은 데이터) 만 있어도 모든 것을 기억해 냅니다.

3. 진짜 비밀: "지식은 사라진 게 아니라 잠들어 있다"

연구진은 더 깊은 분석을 했습니다. 거대 로봇이 새로운 일을 배우는 동안, 과거 작업의 성공률이 일시적으로 떨어지는 것처럼 보일 때가 있었습니다. 하지만 자세히 보니 지식이 완전히 지워진 것이 아니었습니다.

  • 비유: 거대 로봇의 머릿속은 거대한 도서관 같습니다. 새로운 책 (새로운 미션) 을 꽂을 때, 기존 책들이 잠시 가려져서 찾기 어려워진 것처럼 보일 뿐, 책이 사라진 건 아닙니다.
  • 실험: 연구진이 아주 짧은 시간만 더 훈련 (파인튜닝) 시켜주자, 로봇은 순식간에 잊어버렸던 과거 일을 다시 완벽하게 해냈습니다.
  • 반면 작은 로봇: 지식이 아예 지워져서 다시 배울 때는 처음부터 다시 공부해야 하는 것처럼 시간이 오래 걸렸습니다.

4. 결론: 왜 이런 차이가 생길까?

이 차이는 **사전 학습 **(Pretraining)의 힘 때문입니다.

  • 거대 로봇은 인터넷과 수많은 데이터를 미리 공부하면서 세상을 이해하는 '기본 지식'을 쌓았습니다. 이 기본 지식은 새로운 일을 배울 때 기존 지식을 보호하는 방패 역할을 합니다.
  • 반면, 처음부터 배우는 작은 로봇은 새로운 일을 배울 때 기존 지식을 덮어쓰기 때문에 쉽게 망각합니다.

🚀 이 연구가 의미하는 것

이 논문은 로봇 공학계에 큰 희망을 줍니다.

  1. 복잡한 알고리즘이 필요 없다: 과거에는 망각을 막기 위해 매우 복잡한 수학적 기법들이 필요했지만, 이제는 거대 AI 모델 + 아주 작은 메모장만으로도 로봇이 평생 학습 (Continual Learning) 을 할 수 있습니다.
  2. 효율적인 학습: 로봇이 새로운 기술을 배울 때마다 엄청난 데이터를 저장할 필요가 없습니다. 아주 적은 양의 과거 데이터만으로도 과거와 현재를 모두 잘 수행할 수 있습니다.

한 줄 요약:

"이미 세상의 모든 것을 배워본 거대 AI는 새로운 일을 배울 때 과거를 잊지 않고, 아주 적은 노력으로 기억을 되살릴 수 있다는 놀라운 사실이 밝혀졌습니다!"