"Don't Do That!": Guiding Embodied Systems through Large Language Model-based Constraint Generation

이 논문은 자연어로 표현된 복잡한 제약 조건을 실행 가능한 Python 함수로 변환하여 로봇 계획 알고리즘에 적용하는 LLM 기반 프레임워크 'STPR'을 제안하며, 이를 통해 다양한 시나리오에서 높은 정확도와 낮은 추론 비용으로 제약 조건 준수를 보장함을 보여줍니다.

Amin Seffo, Aladin Djuhera, Masataro Asai, Holger Boche

게시일 2026-04-10
📖 3 분 읽기☕ 가벼운 읽기

Each language version is independently generated for its own context, not a direct translation.

🤖 상황: 로봇 청소기가 "화장실의 불난 방"을 피해야 한다

상상해 보세요. 로봇 청소기가 집 안을 돌아다니고 있습니다. 주인이 이렇게 말합니다.

"화장실 벽난로 근처는 너무 뜨거우니까 절대 가까이 가지 마!"

하지만 로봇은 온도 센서가 없어요. 그냥 눈 (카메라) 만 있을 뿐입니다. 이걸 해결하는 두 가지 방식이 있습니다.

❌ 기존 방식 (LLM 이 직접 길을 찾음): "생각하는 로봇"

기존 방식은 로봇에게 "화장실 벽난로 근처에 가지 마"라고 말하면, 로봇이 머리 (대형 언어 모델, LLM) 로만 생각해서 "아, 그럼 이쪽으로 가자"라고 길을 직접 그립니다.

  • 문제점: 로봇이 너무 똑똑한 척하다가 **환각 (Hallucination)**을 봅니다.
    • "벽난로가 여기 있나? 아, 아니야. 그냥 지나가자." (실제로는 벽난로에 부딪힘)
    • "동물이 있으면 주방에 가지 말아야지... 아, 지금 동물 없네? (실제로는 동물 있는데 무시하고 들어감)"
    • 마치 수학 문제를 풀 때 답만 대충 외워서 적는 학생처럼, 논리적으로는 맞을 것 같지만 실제로는 틀린 길을 가는 경우가 많습니다.

✅ 새로운 방식 (STPR): "코딩하는 비서 + 수학 선생님"

이 논문이 제안한 STPR은 로봇이 직접 길을 찾는 대신, 두 단계로 나누어 일을 시킵니다.

  1. 1 단계: "코딩하는 비서" (LLM) 가 규칙을 코드로 만듭니다.

    • 로봇은 "벽난로 근처에 가지 마"라는 말을 듣자마자, 길을 찾지 않고 파이썬 (Python) 코드를 작성합니다.
    • "벽난로 좌표는 여기고, 반경 1 미터 안은 '위험 구역'으로 표시해라"라는 정확한 수학 함수를 만들어냅니다.
    • 비유: 로봇이 "길을 찾아라"라고 외우는 게 아니라, **"위험한 곳은 빨간색으로 칠해라"라는 지도를 그리는 규칙 (코드)**을 먼저 만드는 것입니다.
  2. 2 단계: "수학 선생님" (전통적 알고리즘) 이 길을 찾습니다.

    • 이제 로봇은 방금 만든 정확한 코드를 실행합니다. 이 코드는 "이 좌표는 위험하니 통과 불가"라고 딱 잘라 말합니다.
    • 이 정보를 바탕으로 A 나 RRT 같은 전통적인 경로 탐색 알고리즘**이 "위험한 곳은 제외하고" 최단 경로를 계산합니다.
    • 비유: 수학 선생님이 "위험한 구역은 이미 빨간색으로 칠해져 있으니, 그걸 피해서만 길을 찾아라"라고 말합니다. 수학 선생님은 절대 착각하지 않아요.

🌟 왜 이 방법이 더 좋은가요? (핵심 장점)

  1. 실수 (환각) 를 줄여줍니다:

    • LLM 이 "길을 그리는" 실수를 하지 않습니다. LLM 은 오직 "규칙을 코드로 바꾸는" 일만 하니까요. 코드는 컴퓨터가 실행하므로 "아, 내가 착각했어"라는 실수가 발생하지 않습니다.
  2. 작은 로봇도 가능합니다:

    • 이 방법은 거대한 AI 모델이 필요하지 않습니다. 작은 코드 전용 AI 모델만 있어도 규칙을 코드로 잘 변환합니다. 그래서 계산 비용이 적고 빠릅니다.
  3. 안전이 보장됩니다:

    • 실험 결과, 로봇이 화재, 구멍, 보안 카메라 시야, 동물 등 다양한 상황에서 100% 규칙을 지켰습니다. 기존 방식은 규칙을 무시하고 길을 갔지만, STPR 은 "그 길은 위험하니 못 간다"라고 확실히 막아냈습니다.

📝 한 줄 요약

**"로봇이 길을 직접 그리는 대신, AI 가 '위험한 곳'을 코드로 정확히 표시해 주고, 그 코드를 믿고 수학 알고리즘이 안전한 길을 찾아주는 방식"**입니다.

이 기술은 로봇이 인간의 복잡한 지시 ("불난 곳 피하기", "동물 있으면 주방 금지" 등) 를 정확하고 안전하게 따르도록 만들어주는 획기적인 방법입니다.

이런 논문을 받은편지함으로 받아보세요

관심사에 맞는 일간 또는 주간 다이제스트. Gist 또는 기술 요약을 당신의 언어로.

Digest 사용해 보기 →