Embodied AI with Foundation Models for Mobile Service Robots: A Systematic Review

이 논문은 대형 언어 모델 및 멀티모달 모델 등 기초 모델과 embodied AI 를 결합하여 모바일 서비스 로봇의 유연한 이해와 적응적 행동 구현을 도모하는 기술적 진전, 핵심 과제, 실제 응용 사례, 그리고 윤리적·사회적 함의와 향후 연구 방향을 체계적으로 고찰한 최초의 리뷰입니다.

Matthew Lisondra, Beno Benhabib, Goldie Nejat

게시일 2026-03-11
📖 4 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🤖 핵심 내용: "로봇에게 '두뇌'를 심다"

과거의 로봇은 **"지시받은 대로만 움직이는 기계"**였습니다. "소파 옆에 있는 빨간 컵을 가져와"라고 말하면, 빨간 컵이 소파 옆에 있어야만 작동했습니다. 하지만 새로운 **기초 모델 (LLM, VLM 등)**을 도입하면 로봇은 **"상황을 이해하고 추론하는 사람"**처럼 변합니다.

예를 들어, "내 약을 가져와"라고 말하면, 로봇은 약이 어디에 있는지, 약병이 깨지지 않도록 어떻게 잡아야 하는지, 사람이 지나가는 길인지까지 스스로 판단합니다.

이 논문은 이 기술이 얼마나 발전했는지, 그리고 아직 해결해야 할 4 가지 큰 벽이 무엇인지, 그리고 어떻게 극복할 수 있는지 설명합니다.


🧱 4 가지 큰 벽 (과제)과 해결책

이 논문은 로봇이 현실 세계에 들어가기 위해 넘어야 할 4 가지 장벽을 꼽았습니다.

1. "말을 행동으로 바꾸는 것" (언어 → 행동)

  • 문제: 사람이 "저기 저거 좀 줘"라고 말하면, 로봇은 '저기'가 어디인지, '저거'가 무엇인지, 어떻게 잡아야 하는지 모릅니다. 마치 아기에게 "밥 먹어"라고 말했는데, 밥그릇이 어디에 있는지, 숟가락을 어떻게 잡는지 모르는 상황과 같습니다.
  • 해결책: 기초 모델은 방대한 데이터를 학습했기 때문에, 사람의 말에 숨겨진 의도를 파악하고 상상력을 발휘해 행동을 계획합니다. "저기"라는 말을 보고 주변 환경을 스캔해 가장 가능성 높은 물체를 찾아냅니다.

2. "눈과 귀를 동시에 쓰는 것" (다중 감각 인식)

  • 문제: 로봇은 눈 (카메라) 과 귀 (마이크) 를 동시에 사용해야 합니다. 하지만 빛이 어두우면 눈이 안 보이고, 소음이 심하면 귀가 안 들립니다. 이는 시끄러운 파티장에서 친구 얼굴을 찾고 목소리를 들어야 하는 상황과 비슷합니다.
  • 해결책: 기초 모델은 여러 감각 정보를 하나로 융합합니다. 눈이 안 보일 때는 귀소음을, 귀가 안 들릴 때는 시각적 단서를 활용해 상황을 파악합니다.

3. "실수를 인정하고 조심하는 것" (불확실성 추정)

  • 문제: 로봇은 자신이 무엇을 모르는지 모를 때가 많습니다. "내가 이걸 잘 잡을 수 있을까?"라고 스스로 의심하지 않고 무작정 행동하면, 환자를 다치거나 물건을 깨뜨릴 수 있습니다. 이는 운전하는 사람이 안개가 끼었는데도 "나는 잘 봐"라고 믿고 과속하는 것과 같습니다.
  • 해결책: 새로운 AI 는 "내가 80% 는 확신하지만, 20% 는 모르겠으니 조심하자"라고 스스로 판단할 수 있습니다. 불확실할 때는 멈추거나 사람에게 "혹시 이걸 말씀하신 건가요?"라고 물어봅니다.

4. "작은 두뇌에 큰 지식을 담는 것" (계산 능력)

  • 문제: 이 똑똑한 AI 는 보통 거대한 서버에서 돌아갑니다. 하지만 로봇은 배터리로 작동해야 하므로, 휴대폰 크기의 작은 컴퓨터에서 이 모든 걸 처리해야 합니다. 이는 거대한 도서관의 모든 책을 작은 가방에 넣어 가지고 다니는 것처럼 어렵습니다.
  • 해결책: 모델을 압축하고, 필요한 때만 지능을 발휘하도록 최적화하는 기술이 개발되고 있습니다.

🏥 어디에 쓸 수 있을까요? (실제 적용 사례)

이 기술이 적용되면 로봇은 다음과 같은 일을 할 수 있습니다.

  1. 집에서 (Domestic Assistance):

    • "청소 좀 해줘"라고 하면, 로봇은 어디가 더러운지, 어떤 물건을 치워야 하는지 스스로 판단해서 정리합니다.
    • "아기에게 이 장난감을 줘"라고 하면, 아기가 어디 있는지, 장난감을 어떻게 줘야 아기가 놀지 않을지 고려합니다.
  2. 병원에서 (Healthcare):

    • "3 번 병실로 약을 가져가"라고 하면, 로봇은 복도에서 환자들이 지나가는 것을 피하고, 문이 열려 있는지 확인하며 약을 안전하게 전달합니다.
    • 환자가 넘어질 것 같으면 미리 경고하고 도와줍니다.
  3. 쇼핑몰이나 공항에서 (Service Automation):

    • "가장 가까운 화장실로 안내해 줘"라고 하면, 로봇은 실시간으로 사람이 많은 길을 피하며 길을 안내합니다.
    • 행사장을 정리할 때, 의자를 어떻게 배치해야 하는지 스스로 설계합니다.

⚠️ 주의할 점 (윤리와 미래)

이론적으로는 완벽해 보이지만, 실제 사회에 도입할 때는 신중해야 합니다.

  • 사생활: 로봇이 우리 집이나 병원을 돌아다니며 사진과 소리를 기록하면, **누가 이 데이터를 보는가?**라는 문제가 생깁니다.
  • 책임: 로봇이 실수로 사람을 다치게 했을 때, 누가 책임져야 할까요? (개발자? 사용자? 로봇 자체?)
  • 인간 관계: 로봇이 너무 인간처럼 말하고 행동하면, 사람들이 로봇에 정서적으로 의존하거나 오해할 수 있습니다.

🚀 결론: 앞으로는 어떻게 될까?

이 논문은 **"로봇이 이제 막 말을 배우고, 세상을 이해하기 시작한 단계"**라고 말합니다. 아직은 완벽하지 않지만, 기초 모델을 통해 로봇은 단순한 기계에서 우리와 함께 살아가는 지능형 파트너로 변모하고 있습니다.

앞으로는 로봇이 실수를 줄이고, 사생활을 보호하며, 인간과 더 자연스럽게 소통할 수 있도록 연구가 계속될 것입니다. 마치 아이가 자라면서 실수를 배우고, 사회의 규칙을 익히는 과정과 같습니다.

한 줄 요약:

"기초 모델이라는 '초지능 두뇌'를 로봇에 심어, 이제 로봇이 우리 집과 병원에서 스스로 생각하고, 조심하며, 인간처럼 도와주는 시대가 오고 있습니다!"