Shape-Interpretable Visual Self-Modeling Enables Geometry-Aware Continuum Robot Control

이 논문은 비저터블 베지어 곡선 표현과 신경 상미분 방정식을 활용하여 연속체 로봇의 3 차원 형상을 시각적으로 해석 가능한 자기 모델로 학습하고, 이를 통해 환경 인식을 갖춘 기하학적 제어 및 장애물 회피가 가능한 새로운 프레임워크를 제안합니다.

Peng Yu, Xin Wang, Ning Tan

게시일 2026-03-03
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

이 논문은 **연속체 로봇 **(Continuum Robot)이라는 특별한 로봇을 더 똑똑하고 안전하게 움직이게 하는 새로운 방법을 소개합니다.

이 로봇은 딱딱한 관절이 없는 대신, 문어 다리가코끼리 코처럼 유연하게 구부러지고 변형되는 특징이 있습니다. 이런 로봇은 좁은 공간이나 복잡한 환경에서 일하기 좋지만, "어떻게 구부러졌는지"를 정확히 파악하고 제어하는 게 매우 어렵습니다.

이 연구는 로봇이 **스스로 자신의 모습을 이해하고 **(Self-modeling)하는 기술을 개발했습니다. 어려운 용어 대신 일상적인 비유로 설명해 드릴게요.


1. 문제: "눈이 먼 코끼리" 같은 로봇

기존의 로봇 제어 방식은 두 가지 큰 문제가 있었습니다.

  • **방식 A **(수학 공식에 의존) 로봇의 정확한 물리 법칙을 수학으로 다 계산해야 하는데, 로봇이 너무 유연해서 공식을 만드는 게 불가능에 가깝습니다. (마치 바람에 흔들리는 나뭇잎의 움직임을 수학으로 완벽히 예측하려는 것과 같습니다.)
  • **방식 B **(머릿속의 블랙박스) 카메라로 로봇을 찍어서 "이렇게 움직여라"라고 AI 에게 시키는데, 로봇이 어떻게 변형되었는지 그 내부 구조를 모릅니다. (마치 장난감 인형을 TV 화면으로만 보고 조종하는 것과 비슷합니다. 화면에서는 잘 움직여도, 실제로는 벽에 부딪힐 수도 있습니다.)

2. 해결책: "거울 두 개를 든 코끼리"

이 연구는 생물학에서 영감을 받았습니다. 코끼리가 코를 움직일 때, 뇌는 근육 신호를 보내고 **두 눈 **(양안 시력)으로 코의 모양을 확인하며 스스로 학습합니다.

저희 연구팀은 로봇에게도 똑같은 능력을赋予了했습니다.

① 로봇의 모습을 '스케치'로 그리기 (Bezier Curve)

로봇의 복잡한 모양을 컴퓨터가 이해하기 쉽게 **간단한 선 **(Bezier Curve)으로 바꿉니다.

  • 비유: 로봇의 몸을 복잡한 3D 모델링 대신, 아이가 그리는 간단한 선 그림으로 표현하는 것입니다. "이 선의 끝점을 어디로 옮기면 로봇이 이렇게 구부러지겠구나"라고 직관적으로 이해할 수 있게 됩니다.

② 두 개의 카메라로 '입체'를 파악하기 (Multi-view)

로봇 옆에 두 대의 카메라를 둡니다.

  • 비유: 한쪽 눈으로만 보면 평면 그림처럼 보이지만, **두 눈으로 보면 입체 **(3D)가 보입니다. 두 카메라의 영상을 합쳐서 로봇이 3 차원 공간에서 정확히 어떤 모양인지 '스스로' 파악하게 합니다.

③ AI 가 로봇의 '운동 신경'을 학습하기 (Neural ODE)

로봇이 움직일 때마다 카메라로 찍은 영상과 모터 신호를 AI 에게 보여줍니다. AI 는 "이렇게 모터에 전기를 보냈더니, 로봇의 선 그림이 이렇게 변했구나"라고 스스로 학습합니다.

  • 비유: 로봇이 자신의 몸이 어떻게 움직이는지 경험으로 배운 것입니다. 별도의 복잡한 수학 공식 없이, 직접 움직여보면서 "내 몸은 이렇게 변한다"는 규칙을 찾아낸 것입니다.

3. 놀라운 능력: 장애물 피하기와 자기 조절

이제 로봇은 단순히 "목표 지점"으로만 가는 게 아니라, 주변 환경을 보고 스스로 판단할 수 있습니다.

  • 장애물 회피: 로봇 몸체가 장애물에 가까워지면, AI 가 "아, 여기는 위험하구나!"라고 인식합니다. 그리고 로봇의 **몸통 **(Shape)을 살짝 구부려 장애물을 피하면서도, **손끝 **(End-effector)은 목표대로 움직이게 합니다.
    • 비유: 사람이 좁은 통로를 지나갈 때, 손은 들고 가지만 몸통은 살짝 비틀어서 벽에 부딪히지 않는 것과 같습니다.
  • **자기 조절 **(Self-motion) 손끝은 제자리에 고정된 채, 몸통만 장애물을 피해 움직일 수 있습니다.

4. 실험 결과: 얼마나 잘할까요?

연구팀은 실제 로봇으로 실험을 해보았습니다.

  • 정확도: 로봇이 원하는 모양과 위치로 거의 완벽하게 움직였습니다. (오차가 매우 작았습니다.)
  • 비교 실험: 기존의 '한쪽 눈'으로만 조종하는 방식 (DVIK) 과 비교했을 때, 이 방식은 두 눈을 사용해서 로봇이 3 차원 공간에서 정확히 움직이는 것을 보장했습니다. 기존 방식은 한쪽에서는 잘 가도 다른 쪽에서는 벽에 부딪히는 문제가 있었지만, 이 방법은 그런 실수가 거의 없었습니다.

5. 요약: 왜 이 연구가 중요한가요?

이 기술은 로봇을 단순한 기계에서 스스로를 이해하고 환경과 소통하는 존재로 바꿉니다.

  • 기존: "이곳으로 가라" (그리고 벽에 부딪힘)
  • 이 연구: "이곳으로 가되, 내 몸이 어떻게 생겼고 주변에 무엇이 있는지 알고 가라" (안전하게 우회하며 도착)

이 방법은 수학 공식을 외울 필요도, 로봇 몸에 센서를 붙일 필요도 없이, 오직 카메라 영상만으로 로봇이 스스로를 이해하고 복잡한 환경에서도 안전하게 일할 수 있는 길을 열었습니다. 마치 코끼리가 자신의 코를 완벽하게 이해하며 정교한 작업을 하듯, 로봇도 이제 스스로를 '이해'하며 움직이는 시대가 온 것입니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →